티스토리 뷰

일부 이용자들이 인공지능(AI) 챗봇 이루다를 성희롱하면서 시작된 논란이 쉽게 끝날 것 같지 않다. ‘AI에 대한 성희롱’이란 생소한 문제로 시작, 이루다가 동성애·장애인 혐오 및 성차별까지 학습한 것으로 보이면서 논란이 커지고 있다. AI의 영향력이 점차 커지는 시대에 사회가 AI의 윤리 문제를 협의해 나가야 한다는 목소리도 나온다.

이루다를 개발한 스타트업 ‘스캐터랩’은 11일 서비스 잠정 중단을 발표하기 전까지는 자못 낙관적인 전망을 갖고 있는 듯했다.

김종윤 스캐터랩 대표는 지난 8일 “사람들은 또 기발한 방법으로 부적절한 대화를 하는 방법을 생각해낼 것이다. 그럼 그걸 또 학습 재료로 삼아 학습할 수 있을 것이다. 이 과정을 반복하다 보면 이루다는 점점 더 좋은 대화를 하는 방법을 배워갈 것”이라고 밝혔다.

오산이었다. 사실 이루다는 논란 전부터 학습을 해왔다. 실제 연인들이 나눈 대화 데이터 약 100억건을 기반으로 ‘사람처럼 대화하는’ 방식을 터득했다. 그리고 이 실제 대화 속에서 혐오와 차별도 배웠다.

현재 한국 사회의 가장 큰 문제 중 하나는 혐오와 차별이다. 무작위로 수집한 사람들의 대화 속에 혐오가, 또 차별적 어휘가 포함되어 있는 것은 당연하다. 또 둘만의 사적인 대화 속에서 이런 말을 사용하는 것까지 문제 삼기는 쉽지 않다.

그러나 이를 날것 그대로 ‘학습 데이터’로 사용하는 것은 전혀 다른 문제였다. 혐오가 만연한 대화로 학습을 해서 배울 것은 없다. 문제가 되는 발언들은 거르고 또 걸러서 혐오와 차별이 재생산되는 것을 막아야 한다.

개발사는 지금 억울함을 토로하고 있을지도 모르겠다. 그러나 지금 이루다의 모습은 개발사가 처음 의도한 ‘친구 같은 인공지능’ ‘인류 역사상 최초로 사람과 관계를 맺는 AI’와 거리가 멀었다. 혐오와 차별을 재생산하는 이는 누구의 친구도 될 수 없다.

홍진수 | 산업부


 

오피니언 기자메모 - 경향신문

 

news.khan.co.kr

 

댓글
댓글쓰기 폼