주메뉴바로가기 본문바로가기

비즈한국 BIZ.HANKOOK

전체메뉴
HOME > Target@Biz > 비즈

[AI 백브리핑①] 생성형 AI의 윤리 문제, 기업들의 대응 방법은?

관련 법안 국회 문턱 넘지 못해…기업 자체적으로 AI 원칙 마련하고 사고 방지에 주력

2023.06.01(Thu) 16:21:02

[비즈한국] 챗GPT로 촉발된 생성형 인공지능(AI) 바람이 거세다. 먼 미래에나 볼 줄 알았던 창의적인 AI가 우리 곁에 다가오자 전 세계가 들썩였다. 생성형 AI는 기술 발전의 새로운 가능성을 열었지만 동시에 혼란도 불러일으켰다. 갑자기 이뤄진 기술의 진보를 제도와 의식이 따라가지 못하면서 윤리, 제도, 환경 등 여러 분야에서 마찰음이 발생한다. 일각에서는 AI의 발전 속도를 의도적으로 늦춰야 한다는 경고까지 나온다. ‘AI 백브리핑’에선 고도화를 이룬 AI가 가져올 ‘멋진 신세계’ 이면의 문제를 들여다본다. 

 

인공지능(AI) 챗봇 챗GPT는 전 세계에 AI 붐을 일으키고 기술 발전의 새로운 길을 열었지만, 윤리적인 부작용도 일으켰다. 사진=연합뉴스


학습한 방대한 데이터를 기반으로 텍스트, 이미지 등의 창작물을 만드는 AI가 불쑥 등장하면서 가장 먼저 촉발된 논란은 윤리 문제다. 다루는 법을 고민할 틈도 없이 발 빠른 여러 기업이 우후죽순 관련 서비스를 출시하면서 AI 윤리 정립은 더 이상 미룰 수 없는 과제가 됐다. AI 윤리는 AI 기술이 인간에게 어떤 도움과 피해를 주는지, 결과물을 어떻게 사용할지, 사회에 어떤 영향을 미치는지 고민하는 데에서 출발한다. 현재 △개인정보 도용 및 유출 △결과물 악용 △저작권 논란 △환경 파괴 등의 쟁점이 있다. 여기에 생성형 AI가 지나치게 ‘인간다운’ 결과물을 만들면서 오남용하는 사례가 늘어났다.

 

#전 세계가 고민하는 AI 윤리 문제의 핵심은?

 

AI 윤리에 관한 논의는 생성형 AI 붐이 일어나기 전부터 진행됐다. 미국에선 2020년 1월 ‘인공지능 규제 가이드라인’을 만들었고, 유네스코는 2021년 12월 193개국이 만장일치로 채택한 ‘인공지능 윤리 권고’를 발표했다. AI 기술의 파급력에 국경은 무의미한 만큼 범국가적인 문제라고 본 것이다.

 

유네스코는 AI 기술이 인류와 국가에 가져오는 혜택은 인정하지만, 한편으론 AI가 미칠 부작용을 우려했다. 유네스코는 발달한 AI 기술이 △차별과 배제 △국가 내 또는 국가 간 불평등 심화 △디지털 격차 △문화·생물·다양성 위협 등의 부작용을 가져오고, 인간 존엄성·민주주의·성평등·동물 복지·생태계 등에 잠재적인 영향을 미칠 수 있다고 봤다.

 

국내에서는 2021년 초 AI 챗봇 ‘이루다’가 AI 윤리 논의에 불을 지폈다. 20세 여대생 콘셉트의 AI 챗봇 이루다는 출시 직후 각종 윤리 문제를 일으켰다. 먼저 AI 성희롱·성 착취 문제가 나타났다. 온라인 커뮤니티에서 이루다를 성적 대상으로 악용한 사실이 알려진 것이다. 이어 이루다의 혐오·차별 발언이 논란이 됐다. 소수자 혐오를 학습한 이루다가 이를 고스란히 말하면서 알고리즘에 문제가 있다는 지적이 나왔다. 

 

여기에 개인정보 무단 수집까지 터졌다. 개발사(스캐터랩)가 대화 분석 앱으로 수집한 메신저 데이터를 당사자의 동의 없이 이루다 개발에 활용했기 때문. 개인정보보호위원회는 이후 스캐터랩에 1억 330만 원의 과태료·과징금을 부과했다. 결국 이루다는 출시 3주 만에 서비스를 중단했고, 1년이 지나서야 새 버전으로 돌아올 수 있었다.

 

이루다 사건은 AI 와의 공존을 앞두고 사용자와 개발자 모두를 위한 AI 윤리의 필요성을 시사하는 계기가 됐다. 사실 정부는 2020년 12월 ‘인간성’을 핵심 가치로 한 ‘국가 인공지능 윤리 기준’을 발표했는데, 곧바로 이루다 사건이 터지면서 실효성에 의문이 제기됐다.

 

이후 구체적인 지침이 만들어졌다. 2021년 6월 개인정보보호위원회는 AI 서비스의 개발자와 운영자를 위한 ‘AI 자율점검표’를 발표했다. AI 설계, 개발, 운영 과정에서 개인정보를 안전하게 처리하기 위해 지켜야 할 의무와 권장 사항을 담은 안내서다. 점검표에는 AI 개인정보보호 6대 원칙(적법성, 안전성, 투명성, 참여성, 책임성, 공정성)을 기준으로 16개 점검 사항, 54개 확인 사항이 포함됐다. AI가 민감한 정보나 개인정보를 가리지 않고 학습하는 만큼 개발·운영 측의 책임을 강조한 것이다.

 

#“​서비스 존폐가 걸린 문제”​ 자발적 대응 나선 기업들

 

AI 윤리의 필요성에 의문을 가졌던 과거와 달리 이제는 서비스의 존폐를 좌우할 만큼 중요해지면서 국내외 기업도 이에 대응하고 있다. AI 툴을 개발하거나 AI 기술을 적용한 서비스를 제공하는 기업은 스스로 윤리 기준을 마련하고 담당 조직을 꾸리고 나섰다. 

 

디자인 소프트웨어 기업 어도비는 자체 AI 윤리 원칙과 AI 팀을 갖추고 관리한다. 다나 라오 어도비 부사장은 4월 블로그를 통해 “생성형 AI 툴을 개발하는 기업은 AI 윤리 체계를 갖춰야 한다”라며 “간결하고 실행 가능한 AI 윤리 원칙을 세우고 검토 과정을 엔지니어링 구조에 포함해야 고객을 존중하고 기업 가치에 부합하는 AI 기술을 개발할 수 있다”라고 강조했다. 

 

실제로 어도비는 이미지 생성 AI 모델인 ‘파이어플라이(Firefly)’를 출시하면서 만반의 준비를 했다. 파이어플라이 모델에 어도비가 보유한 이미지, 오픈 라이선스 콘텐츠, 저작권이 만료된 콘텐츠를 학습시켜 분쟁을 원천 차단한 것. 또 편향된 가치를 담은 결과물이 나오지 않도록 AI 윤리팀이 꾸준히 테스트하고 사용자 피드백을 받아 개선하고 있다. 그림 AI의 데이터 학습을 두고 논란이 많은 만큼 철저하게 대비하는 모습이다.

 

어도비는 AI로 만든 결과물에도 신경 썼다. 자동으로 콘텐츠 자격 증명을 첨부해 생성형 AI로 만든 콘텐츠임을 표시하도록 했다. 사용자가 콘텐츠의 진위를 파악할 수 있도록 한 것이다. 역으로 창작자가 자기 작품이 AI의 학습 데이터로 쓰이는 걸 원치 않을 경우 작품에 ‘학습 금지’ 자격 증명을 붙일 수도 있다. 

 

생성형 AI는 데이터를 학습해 인간처럼 창작물을 만들 수 있다. 사진은 지난 2월 나온 챗 GPT가 직접 쓰고 편집과 교열까지 본 도서 ‘삶의 목적을 찾는 45가지 방법’. 사진=연합뉴스


국내에선 빅테크사, 금융사, 게임사, AI 관련 스타트업 등을 중심으로 AI 윤리 체계를 수립하고 있다. 초거대 AI를 만드는 카카오는 2018년 1월 업계 최초로 AI 알고리즘 윤리 헌장을 발표했다. 차별을 막고 데이터를 윤리에 맞게 활용하며, 알고리즘의 훼손을 막는 것이 골자다. 최근에는 여기에 △기술의 포용성(사회적 취약계층의 소외 방지) △아동·청소년 보호(알고리즘 및 서비스 단계에서 위험 차단) △프라이버시 보호 원칙도 추가했다. 

 

스타트업 중에서는 이루다 개발사인 스캐터랩이 실용적이고 구체적인 AI 윤리 원칙을 갖추고 있다. 아이러니하게도 논란 덕에 철저한 체계를 마련한 셈이다. 스캐터랩은 △5가지 AI 윤리 준칙 △AI 챗봇 윤리점검표 △AI 챗봇 프라이버시 정책 △AI 챗봇 어뷰징 대응 정책을 각각 마련하고, 상황별 예시를 들어 윤리 문제에 대응하고 있다. 흥미로운 건 인류의 이익과 인간성을 강조하는 여타 AI 윤리 원칙에 비해, 스캐터랩의 윤리 준칙은 관계와 다양성에 무게를 둔다는 점이다. 

 

AI 서비스 개발 과정에서 윤리 기구를 만들기도 한다. 게임사 크래프톤은 지난 4월 딥러닝 본부에 윤리위원회를 꾸리고 AI 윤리 논의와 데이터 사용 관련 가이드를 만드는 데 힘쓰고 있다. 크래프톤은 사용자를 기억하고 친근하게 행동하는 게임 파트너이자 가상 친구(버추얼프렌드)를 개발하면서 향후 발생할 문제에 대비한다. 예를 들어 사용자가 AI 친구에 과몰입하거나 성 착취, 학대 등을 하는 상황이 왔을 때 대처법을 마련하는 식이다.

 

기업의 자발적인 움직임이 중요한 이유는 또 있다. AI 윤리 관련 법률이 부재한 현재로선 AI 악용이나 비윤리적인 사용을 제재하기 어렵기 때문이다. 국내서 AI 윤리를 포괄하는 기본법적 성격을 가진 AI 관련 법안은 2020~2021년 사이 6개가량 발의됐지만, 국회에서 통과되지 못하고 계류된 상태다.

 

5월 31일 AI 플랫폼 뤼튼테크놀로지스가 개최한 생성형 AI 콘퍼런스 ‘GAA 2023’에서 이지은 김앤장 법률사무소 변호사는 “AI 윤리와 관련한 법적 쟁점은 크게 두 가지다. 하나는 학습 데이터의 편향성으로 인해 인종·성별 등 가치판단 문제에서 AI가 인위적 편향성을 가지는 문제고, 두 번째는 사용자가 의도적으로 AI를 탈옥(제조사의 윤리 설정을 제거 또는 우회하는 것)해 오남용하는 것이다. 가짜뉴스, 딥페이크도 오남용 사례에 해당한다”라며 “규제해야 한다는 논의는 나오지만 법 제정까지 이어지진 않은 상황”이라고 말했다.

 

이 변호사에 따르면 AI의 데이터 수집과 개인정보보호 문제는 입법보다 기술로 해결하는 추세다. 그는 “우리나라 개인정보보호에서 핵심 키워드는 ‘동의’다. AI가 개인정보가 섞인 데이터를 수집할 때 목적과 기간 등에 따라 동의를 받는 등 제한이 있어 법적으로 완화하려는 움직임이 있다”라며 “기술적으로 개인정보 침해를 막기 위해서 실시간 비식별 처리를 하거나, 정보로 당사자를 추론하는 것을 방지하는 모델인 차분 프라이버시 등 정보 보호 연구·개발에 무게를 두고 있다”라고 설명했다.​ 

심지영 기자 jyshim@bizhankook.com


[핫클릭]

· 9년째 중단, '유명무실' 재건축부담금 완화 목소리 커지는 까닭
· '태양광 딛고 우주로' 한화그룹 장남 김동관의 중간성적표
· 동서그룹 오너 3세 김종희 부사장, 승계 시계 빨라졌다
· 미국서 '거짓판례' 내놓은 챗GPT…AI 법률 서비스 등장, 한국도 남 일 아니다
· [현장] 국내 게임산업, AI 활용 어디까지 왔나


<저작권자 ⓒ 비즈한국 무단전재 및 재배포 금지>