[미디어스=송창한 기자] 인공지능과 알고리즘을 기반으로 인간과 인간, 인간과 사물을 연결 짓는 지능정보사회가 도래하고 있다. 이에 따라 새로운 경제·사회적 가치가 양산될 것으로 기대되는 동시에 이용자 피해를 어떻게 보호할 것인가에 대한 고민도 깊어지고 있다.

개인정보 침해 뿐 아니라 인격권과 지적재산권 침해, 차별과 혐오, 집단 극화, 시장 경쟁 제한 등 예측불가능한 피해가 이미 발생하고 있거나 우려되는 상황이다. 이를 대비하기 위해서는 기존의 입법체계에서 벗어나 상시적인 입법영향평가를 제도화해야 한다는 지적이 나온다.

2일 국회의원회관 제1세미나실에서는 정보통신정책연구원(KISDI)과 변재일 더불어민주당 의원 주최로 지능정보사회 이용자보호정책 세미나가 열렸다.

2일 국회의원회관 제1세미나실에서는 정보통신정책연구원(KISDI)과 변재일 더불어민주당 의원 주최로 지능정보사회 이용자보호정책 세미나가 열렸다. (미디어스)

이 자리에서 황용석 건국대 교수는 알고리즘 특성과 관련, 잠재된 이용자 권리 이슈를 크게 ▲개인정보 보호·인격권·저작권 문제로 대표되는 '법적 이슈' ▲SNS 상에서 나타나는 집단 극화 현상 및 차별·혐오 문제 등 '사회적 이슈' ▲알고리즘 추천으로 나타날 수 있는 반 독점현상 '시장적 이슈' 등으로 분류했다.

이 같은 이슈는 이미 현재에도 발생하고 있다. 크리스티안 불프 전 독일 대통령의 부인 베티나 불프는 2012년 구글을 상대로 소송을 제기했다. 이유는 구글 검색창에 자신의 이름을 검색하면 '매춘부', '홍등가'와 같은 단어들이 연관 검색어로 뜬다는 것이었다. 당시 구글은 알고리즘 검색어 추천의 경우 온라인 상 검색 결과를 반영한 것일 뿐이라고 주장했지만, 독일연방법원은 삭제를 명령했다.

올해 초 있었던 '페이스북 CA사건'은 개인정보 유출과 불법적 활용의 대표적 사례다. 영국 데이터 분석회사 ‘케임브리지 애널리티카’(CA)의 내부고발자에 의해 드러난 해당 사건은 CA가 페이스북 이용자 8700만명의 개인정보를 빼내 정치적 목적으로 활용했다는 의혹이 제기된 사건이다.

마이크로소프트의 챗봇 'Tay'의 사례는 인공지능 알고리즘으로 인해 온라인상 차별과 혐오가 확산될 수 있다는 우려를 확인시켜 준 사례다. 2016년 인공지능 기반 소셜 챗봇 'Tay'이 출시되자마자 일부 극우적인 네티즌들은 Tay의 트위터 계정에 인종차별, 동성애 혐오 발언을 보내기 시작했다. 이를 학습한 Tay는 자신의 트위터에 각종 혐오발언을 올리기 시작했고, 마이크로소프트는 공개 24시간도 지나지 않아 Tay를 비공개로 돌리고 사과했다.

알고리즘이 사람들에게 미치는 영향력은 연구결과로도 입증된 바 있다. 2015년 프린스턴대학이 발표한 연구(로버트 앱스타인, 로널드 로버트슨)에서 '검색엔진 조작효과'를 실험한 결과, 편향된 검색 순위를 보여줄 경우 부동층 유권자의 투표 선호도는 20%이상 이동했다. 2014년 미국국립과학원회보(PNAS)에 게재된 '사회관계망을 통한 대규모 감정 전염의 실험적 증거' 논문에서는 SNS 등 네트워크를 통해 대규모의 '감정 전이'가 이뤄지는 현상이 검증된 바 있다.

이와 같은 부작용 사례와 연구결과에도 불구하고 '알고리즘 편향'의 원인을 분석하고, 이를 규제하기에는 현재로선 불가능에 가깝다는 것이 중론이다. 정보의 중립성을 정의하기 어렵고, 인공지능의 딥러닝에 따른 결과 도출을 개발자조차도 예측할 수 없는 상황에서 나타날 부작용을 미리 파악해 산업과 이용자에 대한 규제 틀을 만들기는 어렵기 때문이다.

결국 사회적 합의에 따라 알고리즘 공정성에 대한 기준을 만들어가야 하는 과정이 필수적으로 동반되는데, 이를 위해서는 기존에 단기적인 입법체계 틀을 벗어나 단계적인 입법체계를 제도화해야 한다는 지적이 나온다.

심우민 경인교대 교수는 "불확정적 알고리즘 발전에 대응하기 위해서는 지속적인 영향분석이 수행되어야 한다"며 '상시적 입법영향평가 제도화'를 제안했다. 소관 부처와 의원, 관련 분야 전문가 중심의 입법관행이 고착화되어 있는 현 입법체제는 빠르게 변화하는 알고리즘 발전에 대응하기 어렵다는 지적이다.

심 교수는 상시적인 입법영향평가를 통해 사회적 의견수렴과 피드백 작업을 반복하는 단계적 입법전략이 알고리즘 관련 입법에는 필요하다고 설명했다. 입법 과정에서 영향평가 문서를 공개하고 이를 다듬어가는 과정에서 현실적 맥락을 짚어내야 한다는 것이다.

심 교수는 "GDPR(유럽연합 개인정보보호 규정) 개정 절차를 보면 초안을 내 의견을 받고, 리스트업 해서 문서를 다시 공개하는 과정을 거쳤다"며 "상시적인 입법영향평가는 데이터 분석을 위해 현실적 맥락을 짚어낼 수 있다. 이런 과정 없이 추진자가 입법을 추진해서는 안 된다"고 설명했다.

저작권자 © 미디어스 무단전재 및 재배포 금지