미국, 유럽 등 AI 규제 방안 ‘검토’
챗GPT 창시자도 AI 규제 필요성에 ‘동의’
AI 악용한 피싱 공격에도 대비해야

ⓒ게티이미지뱅크
ⓒ게티이미지뱅크

[스타트업투데이] 지난해 11월 인공지능(AI) 스타트업 오픈AI가 개발한 챗GPT는 공개 두 달 만에 이용자 수 1억 명을 돌파하면서 전 세계적으로 열풍을 불러일으켰다. 

현재 이 기술은 단편적인 궁금증을 해결하는 데서 그치지 않고 리포트, 공인시험, 예술물 창작 등 광범위한 영역으로 뻗어가고 있다. 일각에서는 챗GPT의 뛰어난 기술력이 오히려 인간에게 부정적인 요소로 작용한다는 의견도 나오고 있다. 

최근에는 미국 의회가 AI 규제를 위한 논의를 펼치기 위해 AI 청문회를 처음으로 열었다. 해당 청문회에 참석한 챗GPT 창시자도 “삶에 도움이 되지만, 심각한 위험 역시 존재한다”며 규제 필요성에 동의했다. 

전 세계적으로 AI 기술의 무한 잠재력만큼이나, 악용에 따른 각종 위험들이 표면 위로 노출되면서 이를 방지하기 위한 규제의 필요성이 제기되고 있다. 

 

챗GPT, 사회전반에 막대한 영향력 발휘∙∙∙규제 대상 되나 

사진=오픈AI
사진=오픈AI

세계 각국은 챗GPT가 촉발한 AI의 영향력에 주목하고 있다. 특히 고도화된 AI는 분야에 따라 사람이 할 일을 대체한다. 이 같은 흐름은 일자리를 뺏길 수 있다는 위협으로 확대된다. 이미 생성형 AI의 보편화로 인한 일자리 축소를 염려하는 여론이 형성되고 있다. 

실제 온라인 여론조사 플랫폼 ‘더폴’이 2만 6,860명을 대상으로 조사한 결과에 따르면, ‘AI 기술로 일자리가 줄어들 것이라고 생각하느냐’는 질문에 응답자의 59.28%가 많은 일을 AI가 담당하게 되고, 인간의 일자리는 줄어들게 될 것이라고 답했다. 

이어 골드만삭스 그룹 이코노미스트들은 생성형 AI가 경제 성장의 구성 요소인 노동 생산성을 연간 약 1.5%포인트 높인다고 분석했다. 이처럼 생성형 AI는 대학 교육을 받는 고소득 전문직의 인적 자본을 겨냥한다. 

이를 둘러싸고 전문가들은 “AI의 발전이 반드시 대량 실업을 불러오는 것은 아니지만, AI 활용 역량에 따라 발생하는 노동시장 양극화 대책이 필요하다”고 입을 모았다. 

이처럼 급성장한 챗GPT는 사회 전반에 막대한 영향을 미치며 윤리, 정확성 등으로 도마 위에 올라 규제 대상으로 지목되고 있다. 

미국 상무부 산하 통신정보관리청(NTIA)은 AI의 책임과 관련해 대중의 관심이 커졌으며, AI 시스템 규제안에 대한 여론을 수렴할 계획이다. AI 시스템이 의도대로 작동하는 동시에 해악을 일으키지 않는 방향으로 사용되기 위해 연방정부가 어떠한 역할을 할지 들여다보겠다는 취지다. NTIA는 의견 수렴 이후, 정책 권고 사항을 담은 보고서를 작성해 행정부에 전달할 방침이다. 

유럽연합(EU)에서도 첨단 AI를 다루는 입법 논의가 활발히 진행되고 있다. 이탈리아, 루마니아 등 유럽의회 의원들은 범용인공지능(GAI)과 관련한 규칙 수립의 필요성을 강조하며, 가칭 「AI법」 제정안에 대한 수정안을 제출할 예정이다. 해당 법안에는 딥러닝 방식의 기초 모델에 대한 규제 조항이 담길 전망이다. 챗GPT도 여기에 포함된다. 

업계 전문가들은 “빠르게 발전하는 AI에 대해 정치적인 관심을 기울여야 한다”며, “AI로 인해 우리 문명에 대한 통제력을 상실할 수 있다”고 말했다. 이어 “규제를 통해 인류가 AI의 혜택을 누리고, 비관적인 미래 시나리오를 피할 것”이라고 전했다. 

 

국정원, AI 악용한 피싱 공격 가능성 ‘경고’ 

ⓒ게티이미지뱅크
ⓒ게티이미지뱅크

국내에서도 챗GPT 열풍이 발생하면서 정보 유출 및 허위 정보와의 전쟁이 시작됐다. 최근에는 국가정보원(이하 국정원)이 생성형 AI 챗봇을 악용한 피싱 가능성을 제기하며, 국제범죄 대응의 일환으로 피싱 최신 수법들을 소개하고 주의를 당부했다. 

특히 국정원은 AI 기술 중 ‘챗GPT’를 악용한 공격 가능성을 경고했다. 국정원은 범죄자들이 AI 기술을 사기 시나리오 개발, 피싱 메시지 작성에 이용하거나, 가짜 챗GPT 웹사이트, 앱을 만들어 정보 및 금전을 탈취할 수 있다고 지적했다. 

국정원은 챗GPT 등 AI 챗봇을 범죄자들이 ‘로맨스 스캠’에 악용할 수 있다고 밝혔다. 로맨스 스캠은 소셜네트워크서비스(SNS)를 통해 접근한 후 온라인 상에서 대화를 하며 친분을 쌓아 연애를 하는 것처럼 유도한 후 사기를 치는 수법이다. 

국정원 관계자는 “범죄자들은 AI 챗봇의 번역기능을 이용해 실시간으로 더 정교하게 로맨스 스캠을 시도할 수 있게 됐다”며, “이런 시도가 호주, 브라질 등에서 적발되고 있다”고 밝혔다. 이를 두고, 전문가들은 여러 사람들의 사진을 AI로 조합해 가짜 사진을 만들어 로맨스 스캠을 시도할 수도 있다고 지적한다. 

이어 국정원은 미국에서 가짜 챗GPT 앱을 배포하는 수법으로 금전을 편취하거나, 챗GPT 사칭 사이트를 만들어 접속자의 SNS 계정 정보를 탈취하는 사례가 있었다고 전했다. 더불어 국정원은 딥페이크 기술로 피해자의 목소리나 얼굴을 모방해 피해자의 지인, 가족을 대상으로 금전 편취를 할 수 있다고 지적했다. 

실제로 지난 4월 미국 애리조나 주에서 AI를 이용해 딸의 목소리를 복제한 가짜 납치 전화로 보이스피싱을 시도한 사례가 있었다. 그동안 보이스피싱, 메신저 피싱의 경우, 다른 전화 등을 통해 피싱이 가짜라는 것을 확인해 대응했다. 그러나 앞으로는 AI를 통해 목소리, 영상 등을 가장할 수 있는 만큼, 가짜를 확인하기가 더 어려워질 것으로 보인다. 

이에 따라, 국정원은 피싱 대응 방안도 새롭게 제시했다. AI 기술이 범죄에 악용될 수 있음을 감안해 음성, 영상 통화를 하더라도 주의를 기울여야 한다는 것이다. 또 금전, 개인정보를 요구하는 등 의심스러운 상황에서는 당사자만 알고 있는 확인 질문을 할 것을 권고했다. 

한편, 국내에서도 챗GPT와 같은 AI가 부정적으로 활용될 수 있다는 여론이 형성되고 있다. 한국언론진흥재단의 조사에 따르면, 응답자 90.1%는 AI가 작성한 글을 학교 과제나 자기소개서 등으로 제출하는 부정행위가 발생할 가능성이 높다고 관측했다. 이어 AI가 답변하면서 타인의 저작물을 활용해 저작권 침해가 생길 것이라는 답변은 88.7%, AI의 잘못된 답변으로 허위 정보가 확산할 것이라는 우려도 88.6%에 달했다. 

[스타트업투데이=권아영 기자] news@startuptoday.kr

저작권자 © 스타트업투데이(STARTUPTODAY) 무단전재 및 재배포 금지