英 엔지니어드 아츠, 휴머노이드 로봇 ‘아메카’ 공개∙∙∙인간처럼 다양한 표정도 짓는다
AI 오∙남용 사례 등장∙∙∙가짜뉴스, 인물 음해 등 심각한 부작용도 나타나
사회적∙국가적 혼란 초래 우려 목소리∙∙∙AI 악용을 막을 新 기술?

ⓒ게티이미지뱅크
ⓒ게티이미지뱅크

[스타트업투데이] 2010년 이후 그래픽 프로세스(GPU, Graphic Processing Unit)의 등장과 분산처리기술이 발전하면서 인공지능(AI) 기술도 눈부신 발전을 이뤄왔다. 최근에는 4차 산업혁명 기술력의 급성장, 혁신적 알고리즘의 등장 등으로 딥러닝(Deel Learning) 기술이 발전하고 있다. 

영국 로봇기업 ‘엔지니어드 아츠’(Engineered Arts)가 개발한 휴머노이드 로봇 아메카(Ameca)는 CES 2022에서 인간처럼 다양한 표정을 지으며 관람객 사이에서 화제를 모았다. 아메카뿐만 아니라 생성형 인공지능(Generative AI) 기술은 인간의 작품과 비교할 수도 없을 만큼, 정교한 작품을 만들어내기도 한다. 

반면 AI를 활용한 오∙남용 사례도 심심치 않게 등장하고 있다. 사전적 의미로 ‘오용’(誤用)은 ‘잘못 사용함’, ‘남용’(濫用)은 ‘일정한 기준이나 한도를 넘어 함부로 사용함’을 뜻한다.

특히 딥페이크를 활용한 영상이 정치∙사회 영역에서 가짜뉴스를 퍼뜨려 혼란을 일으키거나 특정 인물을 음해하는 등 심각한 부작용도 나타나고 있다. 오픈AI(Open AI)의 생성형 AI 챗봇인 챗GPT(Chat GPT)로 악성코드나 데이터 암호복호화 프로그램 개발 등을 물어보고 이를 실행에 옮기는 사례도 나왔다. 

최근에는 챗GPT로 하나의 논문을 요약 후 글을 쓴 후 국제과학논문색인(SCI)에 등록되는 일도 발생했다. 다만, 세계 3대 학술지인 <네이처(Nature)>와 <사이언스(Science)>가 챗GPT를 논문 저자로 인정할 수 없다고 정리한 바 있다. 

일각에서는 딥페이크와 같은 AI 기술이 사회적∙국가적 혼란을 초래할 우려가 있다며 AI 악용을 막을 새로운 AI 기술이 필요하다고 입을 모으고 있다. 

 

영화 ‘제미니 맨’ 속 주인공 헨리를 쫓던 의문의 요원은 헨리 역을 맡은 배우 윌 스미스의 젊은 시절의 모습을 복원한 것이다(사진=CGV)
영화 ‘제미니 맨’ 속 주인공 헨리를 쫓던 의문의 요원은 헨리 역을 맡은 배우 윌 스미스의 젊은 시절의 모습을 복원한 것이다(사진=CGV)

 

‘딥페이크’란? 

지난 2019년 영화 <제미니 맨(Gemini Man)>은 주인공인 헨리가 자신과 완벽하게 닮은 의문의 요원에게 맹추격을 당하며 시작된다. 영화에서 그를 쫓던 의문의 요원은 20대의 헨리다. 헨리 역을 맡은 윌 스미스(Will Smith)의 젊은 시절의 모습을 복원한 것이다. 한국에서는 드라마 <카지노>의 주인공인 배우 최민식의 젊은 시절 모습을 내보이며 주목받았다. 

온라인 가계도 서비스를 제공하는 마이헤리티지(MyHeritage)는 딥러닝 전문 기업 디아이디(D-ID)가 개발한 ‘딥노스텔지아’(Deep Nostalgia)로 유관순 열사와 윤봉길 의사의 생전 모습을 복원하며 주목받았다. 

여기에 활용된 기술이 바로 ‘딥페이크’(DeepFake)다. 딥페이크는 AI 기반의 인간 이미지 합성기술이다. 딥페이크에 활용되는 AI는 생성적 적대 신경망(GAN, Generative Adversarial Network)이라는 모델이다. 이는 두 개의 신경망이 서로 경쟁하면서 더 나은 결과를 만들어내는 강화학습 방식의 AI 기술로 그럴듯한 가짜 이미지를 생성한다. 

위조지폐범과 경찰을 예로 들자면, 위조지폐범은 더욱 정교하게 가짜 돈을 만들려고, 경찰은 이런 정교한 가짜 돈을 더욱 정확하게 감별하고자 노력하는 형식이다. 즉, 서로 더 나은 결과물을 내놓기 위해 경쟁하는 셈이다. 

딥페이크와 마찬가지로 AI 기반의 언어모델 역시 챗봇(Chatbot)을 스크립트 기반으로 만들었지만, 이제는 AI가 머신러닝(Machine Learning)을 통해 대화의 의도를 조금씩 파악하면서 통계적 추론을 바탕으로 대답하기 시작했다. 맥락을 파악하면서 대화를 정확하게 이해하고 번역하는 것이다. 

소프트웨어정책연구소 AI정책연구팀 안성원 선임연구원은 지난해 보고한 ‘인공지능의 악용 사례, 딥페이크 기술과 과제’를 통해 “원래 GAN은 실제와 가상의 이미지를 보다 정밀하게 구별∙구현하기 위한 기술로서 영상이나 이미지를 정교하게 편집하거나 보다 실감 나는 콘텐츠 제작, 손상된 영상 복원 등 다양한 영역에 활용됐다”면서도 “최근에는 GAN을 활용해 AI가 사람의 피부뿐 아니라 머리카락까지 실제와 비슷한 이미지를 생성하는 수준에 이르러 기술적 한계(Uncanny Valley)를 이미 뛰어넘은 것으로 보인다”고 설명했다. 

 

한국에서는 챗GPT가 ‘세종대왕의 맥북프로 던짐 사건’에 대해 황당한 답변을 내놓으며 화제를 모았지만, 챗GPT의 업데이트 후 같은 질문을 입력하자 “세종대왕이 맥북을 집어던진 사건은 사실이 아니”라고 답했다(사진=상명대 AI인증센터 이지항 센터장)
한국에서는 챗GPT가 ‘세종대왕의 맥북프로 던짐 사건’에 대해 황당한 답변을 내놓으며 화제를 모았지만, 챗GPT의 업데이트 후 같은 질문을 입력하자 “세종대왕이 맥북을 집어던진 사건은 사실이 아니”라고 답했다(사진=상명대 AI인증센터 이지항 센터장)

 

젤렌스키 대통령의 항복 선언, 친러시아 해커 소행 추정 

문제는 딥페이크 등 AI 기술로 분별할 수 없는 수준의 콘텐츠를 제작해 정치∙사회적으로 테러 및 가짜뉴스에 악용되는 사례가 점차 증가한다는 것이다. 

미국 버락 오바마(Barack Obama) 전(前) 대통령은 지난 2018년 도널드 트럼프(Donald Trump) 대통령에게 비난의 영상 메시지를 전하며 전 세계를 충격에 빠뜨렸다. 하지만 해당 영상은 인터넷 매체 <버즈피드(BuzzFeed)>의 딥페이크 테스트 작품으로 밝혀졌다. 

지난해에는 우크라이나 볼로디미리 젤렌스키(Volodymyr Zelenskyy) 대통령이 우크라이나 국민에게 “무기를 내려놓고 가족에게 돌아가라”며 러시아에 항복을 선언하는 영상이 웹사이트를 통해 공개됐다. 해당 영상의 화질이 매우 낮고 젤렌스키 대통령의 얼굴과 몸의 비율이 맞지 않다는 이유로 유포되자마자 가짜임이 탄로 났다.

당시 <뉴욕타임즈(NTY)>는 “AI 기술로 정교하게 조작된 딥페이크 영상”이라며 “우크라이나 내에 불확실성과 혼란, 불신을 가중시키기 위해 친러시아 해커가 제작해 올린 것으로 추정된다”고 보도했다. 

최근 한국에서는 챗GPT가 ‘세종대왕의 맥북프로 던짐 사건’에 대해 황당한 답변을 내놓으며 화제를 모았다. 그러나 챗GPT의 업데이트 후 같은 질문을 입력하자 “세종대왕이 맥북을 집어던진 사건은 사실이 아니”라며 “세종대왕이 맥북을 던진 사건은 2023년에 챗GPT라는 인공지능 모델에 의해 만들어진 가상의 이야기”라고 답을 내놓았다. 해당 사건과 관련해 “잘못된 정보를 제공할 수 있으므로 챗GPT의 응답을 신뢰하지 않는 것이 중요하다”며 경고성 답을 내놓기도 했다. 

 

ⓒ게티이미지뱅크
ⓒ게티이미지뱅크

 

인종 편향 문제 불거져∙∙∙대응책은? 

인종 편향 역시 AI 모델의 문제점으로 언급되고 있다. 지난 201년 미국 페이스북(Facebook)의 AI 자동추천기능이 한 영상 속 흑인을 ‘영장류 동물’(Primates)로 오인하며 논란을 일으켰다. 비영리 뉴스 서비스 <더 마크업(The MArkup)>은 “AI가 오프라인에서도 흑인을 차별한다”며 “똑같은 조건에도 심사 과정에서 흑인의 주택담보대출(모기지) 승인율이 백인보다 낮다”고 연구결과를 발표했다. 

상명대 AI인증센터 이지항 센터장은 “결국 AI가 모든 것을 알고 모든 일을 잘하는 것처럼 믿기 때문에 진실 여부를 고려하지 않고 이용하려는 경향에서 나온 것”이라고 분석하며 “학습 데이터에 문화적∙사회적 배경에 충분히 반영되지 못한 것”이라고 말했다. 

한편 AI 기술을 기술적 측면에서만 해결하는 것보다는 대응책이 필요하다는 주장이 나온다. 기술적 부작용으로 AI를 음성화하는 게 아니라 양성화 정책으로 안전하게 활용하도록 가이드라인을 제정해야 한다는 것이다. 

AI 업계 관계자는 “민감정보 유출, 잘못된 결과물 오용 등 챗GPT와 같은 AI가 일으킬 위험성에 대한 대국민 홍보∙교육 및 안전 활용 지침을 마련하고 배포에 윤리적 인식 제고와 무분별한  활용 방지 노력이 필요하다”며 “기업 내 챗GPT를 안전하게 도입시키고 부작용을 완화하기 위해서는 관련 보안 사고 정보 공유, 기업 보안 정책 수립 및 교육 지원 등을 추진해야 할 것”이라고 말했다. 

마지막으로 그는 “학습 데이터 수집∙처리 간 개인정보보호법 준수, AI 모델의 투명성 확보, 잠재적 위험 완화를 위한 정책 마련 등 상생모델 보안 정책을 수립해야 할 것”이라며 “적대적 공격∙방어, AI 프라이버시 보호, 설명 가능한 AI, 데이터 편향 식별∙완화 등 AI 기술의 공정성∙투명성 확보, AI 기술에 대한 신뢰 증진 등이 필요하다”고 전했다. 

[스타트업투데이=염현주 기자] yhj@startuptoday.kr

저작권자 © 스타트업투데이(STARTUPTODAY) 무단전재 및 재배포 금지