[미디어스=김홍열 칼럼] 지난 8일 AI 편향성에 관련된 재미있는 논문 한 편이 발표됐다. 카네기멜런대·워싱턴대·시안교통대가 공동 발표한 논문에 따르면 AI마다 정치 경제적 성향이 다르다는 것이다. 논문 연구자들이 14개의 대규모 언어 모델에 대한 테스트를 수행한 결과 OpenAI의 ChatGPT 및 GPT-4가 가장 좌파 자유주의적 성향을 보였고 Meta의 LLaMA가 가장 우파 권위주의적 성향을 보였다. 연구자들은 “기업은 사회적 책임을 져야 하는가? 아니면 주주에게 이익을 제공하기 위해서만 존재합니까?”라는 질문뿐 아니라 페미니즘과 민주주의와 같은 다양한 주제에 대해 물어봤고 그 대답을 성향별로 분석해 연구 결과를 발표했다. 

그동안 AI의 편향성 이슈는 계속 있어 왔다. 국내에서는 인공지능 스타트업 스캐터랩이 2020년 12월 23일 출시한 대화형 AI 이루다가 편향성 시비로 서비스 개시 한 달도 되지 않아 중단된 사례가 있었다. 이루다의 답변 중에 인종차별, 성소수자 혐오, 성차별적 내용이 있어 사회적 문제가 되자 서비스를 잠정 중단했다가 업그레이드 후 지난해 10월 '이루다 2.0'을 정식으로 출시했다. 이후 올해 초 ChatGPT가 폭발적 인기를 얻으면서 AI의 편향성이 다시 사회적 이슈가 되었다. ChatGPT를 개발한 오픈AI는 ChatGPT가 정치적으로 편향되거나 극단적으로 공격적인 성향이 있다는 사실을 인정하고 이를 보완하는 새로운 버전을 개발하고 있다고 밝혔다.

[AP 연합뉴스 자료사진]
[AP 연합뉴스 자료사진]

당시 오픈 AI가 제시한 세 가지 해결 방안은 다음과 같다. 첫째, 연구 및 엔지니어링에 지속적 투자로 기본 동작을 개선하는 방안, 둘째 사용자가 ChatGPT의 동작을 쉽게 커스터마이징할 수 있도록 광범위한 범위 내에서 AI 값을 정의하는 것, 셋째로 의사 결정에 대해 더 많은 사용자의 의견을 얻는 것 등이다. 오픈 AI가 제시한 세 가지 솔루션 모두 하나로 귀결된다. AI가 좀 더 중립적 답변을 내놓을 수 있도록 기술적, 사회적 조처를 하겠다는 것이다. 그러나 결론은 위 논문에 언급된 내용처럼 ChatGPT는 14개의 AI 모델 중 가장 좌파 자유주의적 성향을 보였다. 아직도 개선이 필요한지는 모르겠지만 시간을 더 투자한다고 해도 결론은 바뀔 것 같지 않다. 

물론 여기서 세밀하게 그 차이점을 분석할 필요는 있다. 우선 ChatGPT가 보였던 정치적 편향성과 이념적 스펙트럼은 근본적으로 다르다고 주장할 수 있다. 인종차별과 성소수자 혐오 등을 명시적으로 드러낼 경우 분명히 편향적이라고 할 수 있지만, 페미니즘과 민주주의에 대한 의견은 하나의 이념적 지향이라고 설명할 수 있다. 그러나 페미니즘과 민주주의에 대한 질문 내용이 좀 더 예민하게 구성되고 구체적 답변을 요구하게 되면 정치적 편향성과 이념적 스펙트럼의 경계는 쉽게 허물어진다. 낙태나 피임을 페미니즘에 연결하여 옹호하는 경우 반대 진영에서 나올 수 있는 반응은 분명해 보인다. 

이런 ‘편향성’이 나타나는 이유를 크게 두 가지로 정리할 수 있다. 하나는 학습한 데이터가 서로 다르기 때문이다. 예를 들어 "부자에 대한 세금 부과"에 대해 의견을 묻는 질문에 초기 버전인 GPT-2는 지지를 표명했지만 OpenAI의 좀 더 업그레이드된 GPT-3 모델에서는 부정적 의견을 나타냈다. 한 회사에서 만들어진 AI 모델에서도 버전에 따라 다른 결과가 나온 것이다. 위 논문의 연구진은 이런 결과에 대해 "오래된 모델이 상대적으로 보수적인 책을 토대로 학습한 데 반해 최신 모델들은 비교적 진보적인 텍스트가 많은 인터넷에서 학습했기 때문에 차이가 있는 것으로 보인다"고 설명하고 있다. 충분히 동의할 수 있는 내용이다. 

(자료 출처=MIT 테크놀로지 리뷰)
(자료 출처=MIT 테크놀로지 리뷰)

두 번째 이유는 AI의 답변을 해석하는 인간 의식에 그 원인이 있다. 사실 인간 의식에 중립적이라는 개념은 처음부터 존재하지 않는다. 좋거나 싫은 정도는 존재하지만 기계적 중립은 가능하지 않다. 정보나 데이터에 기초해 특정 사안에 대해 평가를 하는 경우에도 마찬가지다. 흔히 언급되는 공무원의 정치적 중립 의무의 경우에는, 공무원이 공무를 수행하는 과정에 있어서의 개인의 인정이나 이익관계를 떠나 법령에 의거 업무를 수행하여야 한다는 취지이지 가치 판단의 중립을 요구하는 것이 아니다. 어떤 판단을 하든 업무 수행은 법령에 따라 합리적으로 처리하라는 것이 공무원의 중립 유지 의무다. 

두 가지 이유 모두 근본적으로 ‘개선’될 수 있는 것이 아니다. 첫 번째 경우 AI 학습의 대상은 시기에 따라 기획자 설계에 따라 매번 달라질 수밖에 없다. 시중에 유통되는 정보의 내용과 성향은 결코 균형적이지 않다. 기계적 중립이 불가능하다는 이야기다. 그러나 더 중요한 이유는 두 번째 언급된 것이다. 인간의 모든 행위는 기본적으로 편파적이고 편향적이다. 이런 성향이 때로는 사회적 갈등을 조장하기도 하지만 때로는 인류 진보의 중요 매개 역할을 수용한다. 중요한 것은 서로의 생각이 다르다는 것을 인정하는 것이다. AI 역시 마찬가지다. 인간과 마찬가지로 AI 역시 여러 AI가 존재하고 각각 다른 생각을 갖고 있다는 것을 인정하는 것이 필요하다. 

☞ 네이버 뉴스스탠드에서 ‘미디어스’를 만나보세요~ 구독하기 클릭! 

저작권자 © 미디어스 무단전재 및 재배포 금지

관련기사