애도문∙과제 대필 등 저작권 침해 사례 등장
현재 수준 AI에 대한 비판적 이해와 효율적 활용 필요
‘챗GPT 표절’ 문제, 저작권 침해로 이어져∙∙∙AI 만든 논문 판별 프로그램도 등장

ⓒ게티이미지뱅크
ⓒ게티이미지뱅크

[스타트업투데이] #1 지난 2월 미국 미시간주립대(MSU)에서 총기 난사 사건이 발생하며 3명이 숨지고 5명이 부상을 입었다. 이 사건을 애도하기 위해 테네시주(State of Tennessee) 밴더빌트대(Vanderbilt University)의 피바디 교육대학(Peabody College of Education and Human Development) 사무국은 전체 교내 학생에게 “최근 미시간대 총기난사는 서로를 잘 돌봐야 하는 포용적 환경 조성의 중요성을 일깨운다”며 “우리는 모두를 위한 안전하고 포용적인 환경을 만들기 위해 노력해야 한다”고 이메일 성명을 보냈다. 그러나 이메일 마지막에 적힌 ‘오픈AI의 챗GPT에서 인용됐다’는 문구로 논란이 일어났다. 밴더빌트 측은 “슬픔의 시기와 비극에 대해 우리 공동체가 아닌 챗GPT를 사용한 것은 우리 대학의 가치와 모순된다”며 “교육에 영향을 미치는 모든 신기술과 마찬가지로 우리가 알고 있는 모든 것과 AI에 대해 배워야 하는 것에 대해 성찰할 것”이라고 사죄의 말을 전했다. 

#2 서울권 소재 대학에 다니는 A 씨는 과제로 대체된 지난 중간고사에서 챗GPT를 활용했다. 주제를 입력하고 챗GPT가 알려준 답에서 어색한 표현만 약간의 수정을 거친 후 과제를 제출했다. 그는 “취업 준비와 아르바이트로 일정이 바빠 챗GPT를 활용했는데 만족스러운 결과를 얻었다”며 “담당 교수가 챗GPT와 관련해 특별한 언급이 없는 한 다음 시험에도 활용해볼 생각”이라고 밝혔다. 

챗GPT(Chat GPT)의 등장이 교육계에도 영향을 미치고 있다. 앞선 예처럼 애도문이나 과제를 대필하거나 저작권 침해 등 인공지능(AI) 윤리 문제가 화두다. 일부 국가나 대학에서는 AI 윤리 관련 규범을 제정하고 발표하는 시도도 이어지고 있다. 

 

ⓒ게티이미지뱅크
ⓒ게티이미지뱅크

 

‘AI 리터러시’ 교육 강조∙∙∙AI 생성물 비판적 이해∙수용해야 

미국 보스턴대(Boston University)는 ‘책임 있는 AI, 법, 윤리학&사회’(Responsible AI, Law, Ethics & Society) 과정을, 영국 케임브리지대(University of Cambridge)는 ‘책임 있는 AI’(Responsible AI) 관련 석사 과정을 개설했다. 아시아 명문대학으로 꼽히는 홍콩대(HKU)는 지난 2월 “GPT를 사용해 보고서를 써내면 표절로 간주하겠다”는 방침을 내세우고 있다. 

국내 교육계도 움직였다. 국민대는 지난 3월 국내 대학 최초로 AI 교수학습 활용에 대한 10개의 윤리 강령을 선포했으며 이보다 앞선 지난 1월 교육부는 ‘사람의 성장을 지원하는 교육분야 인공지능 윤리원칙’(시안)을 발표했다. 

일각에서는 온라인상에 떠도는 무분별한 정보로 과제를 수행하는 경우가 종종 있었다며 챗GPT까지 나온 상황에서 저작권이나 학문 윤리에 저촉될 것이라는 우려도 나온다. 

서울여대 정보보호학과 김명주 교수는 ‘AI 리터러시 교육’을 강조했다. 그러면서 현재 수준의 AI에 대한 비판적 이해와 효율적인 활용이 필요하다고 덧붙였다. 

‘리터러시’(Literacy)란, 문해력(文解力), 즉, 남의 글을 읽고 쓸 줄 아는 능력이다. 각종 미디어의 발달로 미디어를 통해 전달된 정보를 비판적으로 이해하고 창의적인 생각을 표현∙소통하는 ‘미디어 리터러시’에서 나아가 AI 생성물을 비판적으로 이해∙수용하는 ‘AI 리터러시’가 중요하다. 

특히 AI 리터러시는 ▲AI 생성물을 비판적으로 이해해 수용하는 능력 ▲AI 기술과 도구를 이해해 이를 적절하게 활용하는 능력 ▲AI 제품과 서비스를 현실적으로 개발하는 능력을 말한다. 

김명주 교수는 “챗GPT 등에 따른 AI 문제에 대한 대안을 교육계가 스스로 찾기 힘들다면 학생에게 지침서를 알려주는 등 지시를 내려줘야 할 것”이라며 “크게 보면 경제나 사회 등 글로벌 시장에서도 영향을 줄 수 있기 때문에 이런 점도 인식시키는 게 중요할 것”이라고 강조했다. 

 

사진=무하유
사진=무하유

 

논문 표절=저작권 침해∙∙∙“올바른 이용 방법 위한 교육 필요” 

사실 교육계에서 가장 논란이 되고 있는 부분은 ‘챗GPT의 표절’이다. 일각에서는 표절이 챗GPT와 같은 생성형 AI가 초래하는 일반적인 문제라고 주장하면서도 결국 저작권 침해가 불거지는 것이라고 지적한다. 

펜실베니아주립대(PSU) 이동원 교수는 지난 4월 GPT-2로 생성된 21만 건의 글과 학습데이터로 사용된 800만 건의 문서를 비교한 논문 <Do Language Models Plagiarize?>(언어 모델이 표절하는가)를 발표했다. 논문에 따르면 과거 문헌에서는 언어 모델(LM)이 종종 학습의 인스턴스(하나의 클래스에서 생성된 객체, instance)의 일부를 기억하고 자연어 생성(NLG) 프로세스에서 재현하는 것으로 나타났다. 하지만 해당 LM이 훈련된 코퍼스(말뭉치, copera)를 얼마나 ‘재사용’하는지는 불분명하다. 

일부 스타트업 업계는 논문이 AI가 만든 것인지를 판별하는 프로그램도 개발 중이다. AI 기술 기업 무하유(대표 신동호)는 지난 21일 AI 기반 표절검사 서비스 카피킬러(CopyKiller)에 ‘GPT킬러’(GPTKiller) 기능을 추가해 챗GPT가 쓴 문장을 찾아내는 서비스를 내놓았다. 이밖에도 턴잇인(Turnitin), KCI 문헌 유사도 검사 서비스, 더블유카피파인드(WCopyfind) 등의 서비스도 있다. 

논문을 작성 중인 학생이 본인의 논문이 표절 심의에 걸리는지 확인하는 것은 물론 이전 논문과 얼마나 일치하는지 등을 논문 제출 전에 확인한다. 

교육계 종사자는 “생성형 AI도 ‘한 명의 저자’라서 자신만의 스타일이 존재한다”며 “교육계는 사실 이런 흐름이 표절이나 저작권 침해를 막는 데 하나의 기술 트렌드로 본다”고 말했다. 

마지막으로 김명주 교수는 “AI가 인류 문화를 획일화시킬 수도, 다양성을 소멸시킬 수도 있다”면서도 “챗GPT를 교육 현장에서 무조건 금지할 게 아니라 이를 올바르게 이용할 수 있도록 적정 수준의 교육이 필요하다”고 강조했다. 

[스타트업투데이=염현주 기자] yhj@startuptoday.kr

관련기사

저작권자 © 스타트업투데이(STARTUPTODAY) 무단전재 및 재배포 금지