AI 챗봇 이루다, 논란 일으키며 3주 만에 서비스 중단
미 FTC, 기업이 겪는 윤리적 문제 해결 위한 가이드라인 제시
카카오, 건강한 디지털 공간 만들기 목표

[스타트업투데이] 최근 성희롱과 혐오발언, 개인정보 무단사용 등으로 논란을 일으킨 스타트업 스캐터랩이 지난 11일 밤 서비스를 완전히 중단했다. 시작한 지 3주 만이다.

앞서 스캐터랩의 AI(인공지능) 챗봇 ‘이루다’는 이용자와의 대화에서 실제 연인간 대화에 나올 법한 대답을 했고 개인정보 유출 논란이 불거졌다.

이루다 사태로 AI 윤리가 사회문제로 대두하면서 AI 개발 윤리에 대한 논의의 필요성이 제기되고 있다.

AI 윤리 논란의 중심에 선 이루다. (출처: 스캐터랩)
AI 윤리 논란의 중심에 선 이루다. (출처: 스캐터랩)

 

AI 윤리 지침, 무엇이 담겨야 할까?

이루다 사태는 AI가 가져올 법적∙윤리적 쟁점을 점화시켰다. 인공지능과 윤리에 관한 논쟁은 어제오늘 일이 아니다. 대표적인 예가 ‘자율주행차’다. 자율주행차가 운행 중 도로에 있는 사람을 쳤을 때 ‘과연 책임을 누구에게 물을 것인가’다. 일각에서는 차주에게 물을 것인지, 아니면 기계결함으로 볼 것인지에 대한 논의가 확실하지 않은 상황에서 자율주행차의 상용화는 힘들 것이라는 입장이다.

해외에서는 지난 몇 년간 인공지능이 유발하는 윤리적 문제가 쟁점으로 떠오르면서 AI가 불러올 윤리적 논쟁에 대비한 가이드라인을 제시했다.

미국 FTC(연방거래위원회)가 지난해 4월 발표한 ‘기업의 인공지능과 알고리즘 이용에 대한 지침’(Using Artificial Intelligence and Algorithms)은 AI 활용하는 기업이 겪는 윤리적 문제를 해결하기 위한 가이드를 제시한다. 궁극적인 목적은 소비자 보호와 권리 보장이다. 투명성 제고, 의사결정에 대한 설명, 결과의 공정성 보장, 데이터와 모델의 타당성 보장, 책임 등 크게 다섯 가지 내용으로 구성됐다.

EU(유럽연합)는 안전한 AI 활용을 위해 전문가 그룹을 구성해 관련 연구를 진행 중이다. EU집행위원회는 2019년 ‘신뢰할 수 있는 인공지능 가이드라인’(Ethics guidelines for trustworthy AI)을 발표했고 국제기구와 국가 차원의 글로벌 수준에서 인공지능 윤리와 관련한 비전을 제시했다.

올해 최초로 온라인으로 진행한 CES 2021에서도 인공지능 윤리에 대한 이야기가 언급됐다. 인공지능이 성∙인종 편향을 벗어나 포용성을 갖춰야 한다는 것이 주된 내용이다. 13일(한국시간) ‘AI에서 성∙인종적 편향’(Gender and Racial Bias in AI)을 주제로 진행된 컨퍼런스에서 애니 장바티스트(Annie Jean-Baptiste) 구글 제품포용성 총괄은 “대표성이 낮거나 인공지능 생성의 가장자리에 있는 것들을 중심으로 끌어올리고 확실하게 입력해 오늘날 우리 세계의 다양성을 정확하게 반영하도록 해야 한다”고 강조했다.

카카오의 알고리즘 윤리헌장 일부. (출처: 카카오 홈페이지 갈무리)
카카오의 알고리즘 윤리헌장 일부. (출처: 카카오 홈페이지 갈무리)

 

카카오, 삼성전자 등 자발적 대책 마련 나서

과학기술정보통신부(장관 최기영)는 지난해 12월 사람이 중심이 되는 「인공지능(AI) 윤리기준」을 마련했다. 4차 산업 시대 바람직한 AI 개발∙활용 방향을 제시하기 위해서다.

먼저 개발∙활용 과정에서 ▲인간의 존엄성 ▲사회의 공공선 ▲기술의 합목적성 등 3대 기본 원칙을 지켜야 한다. 10대 핵심요건인 ▲인권 보장 ▲프라이버시 보호 ▲다양성 존중 ▲침해금지 ▲공공성 ▲연대성 ▲데이터 관리 ▲책임성 ▲안전성 ▲투명성이 충족돼야 한다.

방송통신위원회(위원장 한상혁, 이하 방통위)도 14일 AI 윤리규범 등을 구체화해 제도개선을 추진할 계획이라고 밝혔다. AI 서비스에서 이용자 보호를 가장 큰 원칙으로 삼고 이용자 교육, 사업자 컨설팅, 제도개선 등을 추진한다는 방침이다.

ICT(정보통신기술) 업계도 AI 기반 기술개발에 앞장서며 자발적 대책 마련에 나섰다.

카카오는 13일 공식 브런치를 통해 ‘증오 발언 근절을 위한 카카오의 원칙’을 내놓았다. 약 1년에 걸쳐 마련한 원칙이다. 카카오 측은 “온라인 증오 발언이 사회적 문제로 부상함에 따라 그 대응책을 마련할 필요성에 공감대가 넓어지고 있다”며 “카카오 역시 사회 구성원으로서 디지털 공간을 건강하게 만들기 위한 원칙을 수립했다”고 설명했다.

삼성전자는 지난 2018년 AI 국제협력단체 PAI(Partnership on AI)에 가입하면서 “AI의 안전성(Safety-Critical)과 공정성(Fair), 투명성(Transparent), 책임성(Accountable), 사회적 영향(Societal Influences) 등 다양한 분야에 참여를 확대할 계획”이라고 밝힌 바 있다.

한편 AI 윤리 논란의 중심에 선 스캐터랩은 14일 사과문을 내고 개인정보위원회와 한국인터넷진흥원의 조사에 성실이 임할 것이라고 강조했다. 스캐터랩 측은 “현재 데이터 개인정보처리와 관련한 부분은 개인정보보호위원 및 한국인터넷진흥원에서 조사가 진행 중”이라며 “논란이 되는 모든 사항에 대해 진상조사위원회를 구성해 사내에서도 철저히 조사할 것”이라고 밝혔다. 이어 “외부 전문가를 포함한 상시개인정보보호체계를 구축하고 재발 방지를 위한 강화된 보안 교육을 하는 등 자체 노력도 게을리하지 않겠다”고 덧붙였다.

[스타트업투데이=염현주 기자] yhj@startuptoday.kr

저작권자 © 스타트업투데이(STARTUPTODAY) 무단전재 및 재배포 금지