이루다, 인권을 말하다.
상태바
이루다, 인권을 말하다.
  • 임한결 청년기자
  • 승인 2021.02.01 13:51
  • 댓글 0
이 기사를 공유합니다

-인공지능(人工知能) 아닌 인언지능(人言知能)
▲ 유튜브에 '이루다'를 입력하니 추천 검색어에 '이루다 성희롱 하는 방법'이 추천 되고 있다(사진제공=임한결 청년기자)
▲ 유튜브에 '이루다'를 입력하니 추천 검색어에 '이루다 성희롱 하는 방법'이 추천 되고 있다. (사진제공=임한결 청년기자)

[한국청년신문=임한결청년기자]1월 12일 페이스 북(소셜네트워크 서비스) 페이지 중 하나인 ‘이루다’에서 서비스를 잠정 중단 한다는 글을 올렸다. 이루다는 인공지능(AI) 챗봇을 서비스하는 청년 스타트업스케터랩이 개발했다.

짧은 기간에 많은 이용자가 있었으나 한달도 채 되지 않는 기간에 서비스를 중단 했다. 잠정 중단 배경에는 성희롱, 차별, 혐오 그리고 개인정보 유출 문제로 논란이 있었다. 논란 중에서도 성희롱 ▲차별 ▲혐오 관련하여 ‘이루다 서비스 중단’ 사태는 4차 산업혁명 시대에 살고 있는 우리에게 인권에 대한 인식이 부족함을 시사한다.

AI의 학습은 데이터 중심으로 이루어지고 판단하며 결과를 산출한다. 즉, 인공지능 챗봇 개발에 사용 된 ‘빅 데이터’는 우리의 언어 습관과 사회적 인식을 보여주는 ‘자료’이다. 이루다 문제는 결국 사회적으로 우리가 혐오하고 차별적 발언을 서슴치 않고, 사용했기 때문에 불거진 문제이다.

한편, 이루다가 성희롱을 받았으니 AI의 인권을 보장하자는 소리도 나온다. 이에 네티즌의 반응은 부정적이다. 그런데 단순히 'AI'의 인권 문제만으로 바라볼 문제가 아니다. 앞서 말했듯 우리의 인식이 이루다를 통해 드러났을 뿐이다.

이루다는 시스템의 문제이며 언어 필터링 기능을 강화 해야한다는 지적이있다. 물론 어느정도 보완을 해야 할 필요있다. 그러나 이는 본질 적인 해결책이 되지 않는다. 수 많은 사람들이 언어를 ‘창작’ 해 낼 것이다. 가령, 줄임말이 그 예이다.

창작 된 언어 빅데이터를 ‘필터링’을 하자고 요구하는 사회보다는 필터링을 덜 요구하고, 우리가 먼저 바뀌자고 목소리를 내는 것이 더 건강한 사회가 아닌가. 일제 시대에 우리의 언어를 빼앗아간 일본을 보면 알 수 있듯이 언어는 단순히 문자가 아니다. 사회의 시대적 배경, 문화, 인식 등의 복합적 요소가 섞여있는 사람 사이의 ‘매개체’이다.

한편, 스캐터랩은 공식사과문에서 “저희는 AI가 5년 안에 인간 수준에 가까운 대화를 할 수 있다고 믿습니다. 저희는 AI가 인간의 친구가 되고, 인간과 의미 있는 관계를 맺고, 외로움을 덜어줄 수 있는 존재가 될 수 있다고 생각합니다. 인간과 자유롭게 대화할 수 있는 AI가 앞으로도 소외된 사람, 사회적 약자의 마음을 위로해주는 따뜻한 대화 상대가 되길 바랍니다.”고 심정을 밝혔다.

마지막으로 우리가 변하지 않는다면 인공지능 또한 변하지 않는다면, 빅데이터가 업데이트 되지 않는 한인공지능은 지속적으로 혐오적 발언을 쏟아 낼 것이다. 이는 우리에게 행복을 주는 부메랑이 아닌 화살이 되어 돌아 올 것이다.


댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.