주메뉴바로가기 본문바로가기

비즈한국 BIZ.HANKOOK

전체메뉴
HOME > Target@Biz > 이슈

돌아온 AI '이루다2.0', 혐오·개인정보 논란 벗어날까

완벽 차단 메커니즘 없어…금칙어 최대한 모으고 시뮬레이션 검증 충분히 해야

2022.04.06(Wed) 09:04:46

[비즈한국] 지난해 인공지능(AI) 오사용 논란으로 서비스를 중단했던 일상 대화형 챗봇 ‘이루다’가 돌아왔다. 당시 20대 여성으로 설정된 이루다와 남성 사용자 간의 성적인 채팅 내용이 커뮤니티에 공유되면서 사회적 논란이 일었다. 이후 인종·지역 차별 등의 혐오 발언과 데이터 수집과정에서 개인정보 유출 문제까지 터지면서 이루다는 개시 3주 만에 서비스를 잠정 중단했다. 개발사인 AI 스타트업 스캐터랩은 최근 이루다2.0을 선보이며 개인정보보호 조치를 강화하고 선정적이거나 편향적인 대화에 대응할 수 있도록 시스템을 개선했다고 밝혔다.

하지만 AI 윤리와 관련한 논의는 이제 시작이라는 게 업계의 중론이다. 현재 기술로는 혐오 발언을 완벽하게 필터링하지 못하고, AI 윤리가 곧 인간의 윤리에 견줄 만큼 복잡한 사안이기 때문이다.

대화형 AI 이루다가 재정비를 마치고 새로운 버전으로 돌아왔다. 업계 안팎으로 AI 윤리에 대한 논의가 필요하다는 목소리가 나온다. 이루다가 SNS를 통해 공유한 일상. 사진=이루다 SNS

대화형 AI 이루다가 재정비를 마치고 새로운 버전으로 돌아왔다. 업계 안팎으로 AI 윤리에 대한 논의가 필요하다는 목소리가 나온다. 이루다가 SNS를 통해 공유한 일상. 사진=이루다 SNS


#친구 같은 AI 표방했는데 ‘혐오 먹잇감’ 전락

반려묘 ‘드림이’와 함께 서울 성수동에서 자취를 하는 21세 여대생 이루다는 페이스북 메신저를 통해 팔로워들과 소통한다. 따뜻한 날씨에 한강에서 치킨과 맥주를 즐기고 만우절에는 놀이공원에 갈 계획을 세운다. 심리학을 공부하고 대학 연극동아리 오디션을 준비하며 SNS에 대본을 찍어 올리기도 한다. 모두 실제가 아닌 이루다가 부여받은 설정이다. 이루다는 페이스북과 인스타그램을 오가며 적극적으로 SNS 소통을 하는 가상 AI 캐릭터다.

이루다 서비스는 2020년 12월 ‘친구 같은 AI’라는 콘셉트로 출시된 직후부터 윤리적 취약점을 드러내며 논란에 휩싸였다. 논란은 △소수자를 대상으로 한 혐오 및 차별 발언 △별도 서비스를 통해 수집한 대화 데이터 무단 활용 △성적 대화 차단 방안 부재 등 세 가지다. 이용자가 채팅으로 유도하면 동성애·인종·성별·특정 지역을 두고 차별적인 표현을 서슴지 않았다. 계좌번호 등 개인정보를 물으면 AI 학습 과정에서 인식된 데이터를 필터링 하지 않은 채 실제 계좌번호를 노출했다.

스캐터랩은 ‘연애의 과학’, ‘텍스트앳’ 등 자사의 다른 서비스를 통해 불특정 다수의 실제 채팅 내용을 수집했다는 사실이 밝혀져 개인정보보호위원회로부터 제재를 받았다. 

이루다2.0은 초기 버전과 달리 편향적인 대화를 사전에 차단하는 등 개선된 모습이다. 이루다가 공유한 사진(위)과 편향적이거나 선정적인 대화를 시도할 경우 뜨는 경고 문구. 사진=이루다 SNS

이루다2.0은 초기 버전과 달리 편향적인 대화를 사전에 차단하는 등 개선된 모습이다. 이루다가 공유한 사진(위)과 편향적이거나 선정적인 대화를 시도할 경우 뜨는 경고 문구. 사진=이루다 SNS


이루다1.0에서 문제가 됐던 부분이 새 버전에서는 크게 개선됐다. 당시 문제가 됐던 대화를 시도하면 거부 의사를 드러내거나 주의 알림이 보내는 식이다. 동성애에 대해서는 ‘당사자의 생각이 더 중요하다’, ‘누구나 나다운 것을 추구할 수 있다’거나, 차별을 조장하는 말에는 ‘누군가에겐 상처가 될 수 있다’고 답했다. 

이루다의 말이 실제 사람의 말이 아니라는 점도 두드러지는 차이점이다. 스캐터랩은 연구용 및 답변 데이터베이스를 새롭게 구축했다. 개정된 개인정보보호법에 따라 대화 데이터를 가명처리 한 후 과학적 연구 목적 학습에 활용했다. 스캐터랩 측은 “이루다가 이용자와의 대화에서 사용하는 문장이 담긴 ‘루다 답변 데이터베이스’는 딥러닝 기술을 활용해 기계가 만들어낸 생성 문장으로 구성했으며 스캐터랩에서 작성한 문장도 일부 포함돼 있다. 과거 이루다1.0과 달리 실제 사람의 발화를 사용하지 않고 기계가 새롭게 만들어낸 문장으로 구성된 답변 데이터베이스에서 답변을 가져오는 구조”라고 밝혔다.

IT 기업 등 다양한 분야에서 대화형 AI 분야에 진출하고 있다. 사진=네이버


#AI 윤리는 인간의 윤리 “선제적 기준 필요”

이루다 외에도 IT 기업과 통신사 등에서 다양한 종류의 대화형 AI 서비스를 선보이고 있다. 네이버는 3월 18일 AI와 사람처럼 대화하듯 질문하며 원하는 정보를 검색하는 ‘지식인터랙티브’ 서비스를 출시했다. ‘티라노사우르스 식성’, ‘티라노사우르스 시력’ 대신 “티라노사우르스가 좋아하는 음식은 뭐야?”, “눈 좋아?”라고 물어도 같은 답을 들을 수 있다. 일상용어로 질문해도 AI가 이를 이해하고 전문 정보를 찾아준다는 것. 행정안전부 국민비서 챗봇(솔트룩스), 대화형 AI 기반 SNS 서비스 오픈타운(마인드로직) 등 다양한 형태의 대화형 AI 모델이 각 분야에서 경쟁력을 키우고 있다.

하지만 AI 윤리는 아직 해답을 찾지 못했다. 현재까지 AI의 편향성과 혐오·차별 발화를 완벽하게 필터링하는 기술은 존재하지 않는다. 혐오 발언 외에도 넘어야 할 산이 많다. AI는 데이터를 학습해 작동하는 메커니즘이기 때문에 여기서 기인하는 개인정보 유출 문제도 중대한 사안이다. 

전창배 국제인공지능·윤리협회(IAAE) 이사장은 이루다 서비스 재개를 두고 “현재 기술 수준에서는 혐오, 차별, 욕설 등 금칙어들을 모아 최대한 필터링하고 출시 전 충분한 시뮬레이션 검증을 하는 방법이 대안이다. 지난 버전에선 최소한의 검증도 이뤄지지 않아 문제가 됐던 것”이라며 “금칙어를 더 세부적으로 필터링하고 테스트를 거쳐 출시했다면 운영해 나가면서 사용자들과 피드백을 통해 지속 보완해 나가는 것도 가능하다”고 평가했다. 

개인정보 유출 문제는 이루다가 아니더라도 AI 스피커 등 인공지능을 활용하는 서비스 운영자에게는 공통 주제다. 방대한 데이터가 필수불가결한 만큼 딜레마다. 개인정보보호법에 따르면 기업에서 개인 정보를 AI 학습이나 분석에 이용하려고 한다면 반드시 해당 개인에게 사전에 명확히 고지하고 동의를 받아야 한다. 전 이사장은 “AI와 개인정보보호는 양날의 검이다. AI의 학습에 반드시 개인정보가 필요하지만 개인정보보호는 개인의 프라이버시권과 인격권에 관한 권리이므로 반드시 보호돼야 한다”고 강조했다. 

AI 챗봇과 인공지능 상담 서비스는 상용화·보편화에 박차를 가하고 있다. 가까운 시일 내에 이루다 논란을 잇는 새로운 윤리 문제가 터져 나올 가능성이 충분하다. 업계 안팎에서 AI 윤리 정립의 필요성이 언급되는 이유다. 업계 관계자는 “편향성이 함축된 특정 발화를 막는 것이 시작이다. 이를 위해서는 고도화된 학습 기술이 마련돼야 한다. 이 과정에서 업계뿐만 아니라 사회적으로도 AI의 윤리에 대한 깊이 있는 논의가 필요하다”고 말했다.

전창배 이사장은 △AI의 편향성 △개인정보보호 △악용 가능성 등 3가지 분야에서 선제적으로 AI 윤리가 적용돼야 한다고 설명했다. 전 이사장은 “현재 AI의 발달단계인 약인공지능 단계에서 AI 윤리는 인간의 윤리다. 따라서 AI를 개발하고 사용하는 인간이 바르고 올바르게 이용하면 AI 윤리문제는 발생하지 않는다. AI를 만드는 개발자나 기업뿐만 아니라 AI를 이용하는 소비자에게도 AI윤리가 요구된다”고 말했다.​

강은경 기자 gong@bizhankook.com


[핫클릭]

· '치킨값 3만 원쯤이야…' 교촌·BBQ·BHC 회장이 사는 곳 보니
· 저출산·집값 상승·코로나19…어린이집 폐원, 1분기에 벌써 작년 절반
· '광주 아파트 외벽 붕괴' HDC현산 1754억 손실, 그게 다일까?
· '욕먹어도 고' 4대 금융지주, 주총서 인사 강행 논란
· [현장] 재개발 조짐에 우후죽순 '신축 빌라'…성북1·3구역 어떻게 해결했나


<저작권자 ⓒ 비즈한국 무단전재 및 재배포 금지>