2022년 11월, 오픈AI사가 개발한 “대규모 언어 모델”(Large Language Model, LLM) GPT의 대화형 모델인 챗GPT가 공개되면서 소위 “생성형 AI”에 대한 대중적 관심의 열기가 후끈 달아올랐다. 자연과학 분야의 저명한 학술지 『네이처』는 바로 다음 달인 그해 12월, 학술 연구에서 생성형 AI의 사용이 확대될 가능성과 이로 인해 야기될 문제에 대한 우려를 표명했다. LLM이 지식의 효율적 정리를 통해 새로운 시각을 발견하도록 도와 줄 가능성이 있음에도, {악명 높은 “세종대왕 맥북프로 던짐 사건”처럼} 그 이용 과정에서의 “환각”(hallucination) 혹은 오류 생성 역 흔한 일이다. 진실성이 핵심인 학술 논의에서 어디까지 AI를 신뢰하고 활용할 것인지 『네이처』가 적극적 논의의 필요를 일깨운 것이다.
이후 구미권의 주요 학술지들은 논문 게재 시에 적용될 생성형 AI 사용 지침을 내놓기 시작했다. 2024년 1월 발표된 한 연구(C. Ganjavi 외)에 따르면 자연과학 분야 영향력 상위 100개의 학술지 중 87%가 AI 사용 지침을 발표했다. 이는 분야 특정 없이 학술지를 출판하는 100대 출판사를 대상으로 했을 때 약 24%만 지침을 발표한 것과 크게 대비된다. 출판 학술지 수와 양에서 각기 1, 3위를 차지하며 주요 과학지를 다수 출판하는 슈프링어(독일, 『네이처』 출판)와 엘세비어(네덜란드, 『셀』 출판) 등이 이에 포함된 점을 미루어보면, 자연과학을 주력 분야로 하는 대규모의 출판사일수록 논문에서 AI의 사용 문제에 대해 민감히 대처해 왔다고 할 수 있다.
PubMed로 검색되는 의생명과학 분야 논문의 최소 10%가 LLM을 사용해 초록을 작성했다는 다른 연구 결과(Kobak 외)를 감안하면 이들의 발빠른 대응은 불가피했던 것으로 보인다.
2024년 7월 현재 이들 지침에 공통되는 대표적 특징은, AI를 논문의 저자로 인정하지 않는 것이라 할 수 있다. 위에서 언급한 간자비의 연구에 따르면 지침을 발표한 학술지중 98%가 AI를 저자로 포함할 수 없도록 한다. 하지만 그 함의는 학술지별로 약간 차이가 있다. 대표적으로 『네이처』는 그 이유를 단지 현재의 LLM이 자신들의 저자 기준에 부합하지 않기 때문이라 든다. 저자는 논문 내용에 책임을 질 수 있어야 마땅하다는 전통적 기준을 버릴 이유가 없다는 것이다. 하지만 이러한 제한이 『네이처』가 논문 작성에 생성형 AI 사용을 전면 금지한다는 뜻은 아니다. 『네이처』는 AI를 사용한 경우 방법론이나 이에 상응하는 논문의 부분에서 반드시 이 사실을 밝혀야 한다고 함으로써 ‘적절한’ 사용을 허용하고 있다. “책무성”(accountability)과 함께 강조되는 이러한 “공개”(disclosure) 혹은 “투명성”(transparency) 원칙은 AI 개발과 사용에서 보편적으로 통용되는 윤리 기준이다.
『셀』의 입장은 약간 다른데 주목할 만하다. 위 두 원리가 생성형 AI의 윤리적 활용의 기준이라는 점에서는 같지만, 실제 허용 범위에는 차이가 있다. 『셀』은 연구 과정에 AI 도구를 사용하는 것을 원천적으로 금지하고 지침의 대상을 오로지 생성형 AI를 이용한 “논문 작성”으로 한정하는 경향을 대표한다. 즉, 글의 가독성을 높이는 용도로만 생성형 AI나 AI 도구의 도움을 받을 수 있도록 허용하고, 이 경우 새로 “선언” 항목을 덧붙여 사실을 밝히도록 하는 것이다. 반면 『싸이언스』는 애초에 AI가 생성한 어떤 글 조각도 논문에 사용해서는 안 된다는 엄격한 입장이었다가 2023년 11월부로 입장을 바꾸었다. 간자비의 조사에 따르면 생성형 AI를 어떤 경우에도 사용할 수 없다고 규정한 경우는 현재 거의 없다. 대부분 효용이 큰 생성형 AI 기술을 인간이 ‘어떻게’ 사용하느냐가 관건이라는 입장을 채택한 것이다.
하지만, 활용 사실을 공개하는 것만으로는 논의의 생산 구조를 바꾸는 생성형 AI 기술의 도전에 학문적으로 적절한 대응이 됐다고 보기에 미흡하다. “투명성”을 지침의 앞에 세우는 『셀』은 길고 복잡한 학술지 편집 정책이 표절이나 위조, 모의 같은 인간의 일탈을 표적으로 삼아서 발전했다는 점을 잘 드러낸다. 『셀』과 이를 출판하는 엘세비어는 논문의 윤리 기준 충족 여부 판단과 공정하고 효율적인 심사자 선별을 위해서, 아이러니하게도 특별히 개발한 AI를 사용한다. 이 사실을 공개하고 있다는 점에서 투명하지만 과연 그 과정은 어디까지 책임져지는 것일까? 연구 방법론까지 AI 활용을 허용하는 『네이처』는 그 활용의 적절성을 판단하는 주체를 인간에 한정함으로써 역설적으로 인간의 “책무성”과 생성형 AI의 역량 둘 다에 더 큰 가능성을 부여하는 면이 있다.
학술지들의 또 다른 윤리적 관심사는 저작권과 관련돼 있다. 『네이처』는 콕 찝어 표절 시비와 저작권 위반의 위험을 이유로 논문에 AI 생성 이미지의 사용을 금지한다. 하지만 법적으로 문제가 없는, 자신과의 계약자로부터 얻은 이미지는 예외로 삼는다. 표절은 연구 진실성을 깨뜨리는 비윤리의 극단적 사례로 배격해야 하지만, 출판사로서 기존의 저작권을 존중한다는 『네이처』의 선언은 지식 생산에서 개인과 출판사의 배타적 권리를 수호해온 접근법이 과연 생성형 AI의 도전에 답이 될 수 있을지 되묻게 한다. 이에 관련해서 『네이처』와 『셀』을 포함한 대부분의 학술지들은 심사자가 정보 보호의 가능성이 낮은 생성형 AI에 프롬프트 형태로 논문 내용이나 민감한 정보를 공유해서는 안 된다는 지침도 가지고 있다.
자연과학 분야 학술지들만 위와 같이 생성형 AI를 도구로 규정하고 세부를 관리하는 지침을 내놓은 것은 아니다. 분야를 막론한 학술지 편집자들과 출판사, 대학과 연구 기관이 연합해 만든 출판 윤리 위원회(Committee on Publication Ethics, COPE)가 기본적으로 유사한 지침을 공개했다. 하지만 인문학 분야를 포함해 다양한 학술지를 소수 출판하는 많은 대학 출판부들이(대형 출판사인 옥스퍼드UP와 케임브리지UP 제외) 이를 공식화하지 않는 것은, 기본적으로 치밀한 논변이 중심인 분야나 편집진의 인간적 헌신으로 굴러가는 학술지에서 생성형 AI의 성과가 덜 위협적인 사실과 무관하지는 않을 것이다.
시간이 지나며 생성형 AI의 발전에 따라 사용 지침은 더 고도화하고 채택 분야가 확대될 것으로 본다. 하지만 학술지 분야와 규모 차이 이외에 학술지마다 제공된 지침 내에서도 다루고 있는 생성형 AI의 문제 수위와 측면이 다른 현실은, 노도와 같은 기술의 도전 앞에서 이제 그 성격에 대해 최소한의 합의만 이룬 (구미권) 학계의 상황을 잘 보여준다.
참고문헌
Cell, “Information for Authors”, https://www.cell.com/cell/authors
COPE, “Authorship and AI tools,” 13 Feb., 2023
Ganjavi, Connor, 외, “Publishers’ and journals’ instructions to authors on use of generative artificial intelligence in academic and scientific publishing: bibliometric analysis”, BMJ. 2024; 384: e077192.
Nature, “Aritifical Intelligence (AI)”,
Kovak, Dmitry, 외, “Delving into ChatGPT usage in academic writing
through excess vocabulary”, arXiv:2406.07016v2 [cs.CL]
Science, “Change to policy on the use of generative AI and large language models”, 16 Nov. 2023,
*모든 웹사이트는 2024년 7월 20일 마지막 접속
Comments