top of page
작성자 사진한국연구원

메타분석: 라파엘 밀리에르, <인공 지능의 모방을 넘어> / 챗GPT, 딥엘, 사이스페이스, 오영진

최종 수정일: 2023년 6월 23일

라파엘 밀리에르의 <인공 지능의 모방을 넘어>라는 기고문(웹진 노틸러스, 22.07.01)을 챗GPT와 딥엘, 사이스페이스를 사용해 요약, 분석, 비평을 시도한 실험적인 문건이다. 정보의 변환 과정을 절차적으로 진행하되, 기계의 실수를 걸러내고 취사선택하는 최종 책임지는 자는 인간감독자 오영진이다 . 원본의 글을 읽고, 메타분석문 읽기를 권장한다.


라파엘 밀리에르의 글에서 언급한 '확률적 카멜레온'을 프롬프트로 넣어 미드저니봇이 생성함.

라파엘 밀리에르의 "인공지능의 모방을 넘어서"라는 제목의 글에서는 사전 학습된 대규모 인공지능 모델의 발전과 한계에 대해 살펴봅니다. 파운데이션 모델 또는 사전 학습된 대규모 모델로 알려진 이 모델은 사람이 직접 라벨을 지정하지 않고 방대한 양의 데이터를 학습하여 추가 학습 없이 다양한 작업에 적응할 수 있습니다. 이러한 모델은 텍스트와 이미지를 생성하는 데 있어 인상적인 능력을 보여줬으며, 인간과 유사한 결과물을 모방했습니다. 그러나 이 글은 이러한 모델이 진정한 감성이나 인간과 같은 지능을 가지고 있지는 않다는 점을 강조합니다.


저자는 대규모 언어 모델과 텍스트, 이미지, 동영상에 대해 학습된 다중 모드 모델의 차이점에 대해 설명합니다. 일부 연구자들은 이러한 모델이 확률적 앵무새처럼 훈련 데이터의 샘플을 단순히 이어 붙이는 것에 불과하다는 우려를 제기했습니다. 인간의 언어적, 시각적 이해의 본질이 완전히 이해되지 않았기 때문에 이러한 모델에 의한 텍스트와 이미지의 이해는 과학자와 철학자들 사이에서 여전히 논쟁의 대상이 되고 있습니다.


이 기사는 사전 학습된 거대언어 모델과 인간의 인지 사이의 차이점을 인정하는 것이 중요하다는 점을 강조합니다. 예를 들어, 어린이는 세상과 상호작용하고 피드백을 받으면서 언어를 배우는 반면, AI 모델은 개인적인 기억, 목표, 신념이 부족합니다. 저자는 이러한 모델을 과대 포장하는 것에 대해 경고하고 인간 수준의 일반 지능에 대한 주장에 대해 회의적인 태도를 취할 것을 권장합니다.


인공 모방이라는 개념을 도입하여 이러한 모델이 새로운 환경에 적응하고 다양한 스타일과 미학을 모방하는 데 탁월한 능력을 발휘하는 방법을 설명합니다. 그러나 모방이 반드시 지능이나 기관을 수반하는 것은 아닙니다. 이러한 모델은 인상적인 능력을 보여주고 참신한 결과물을 만들어낼 수 있지만, 편향적이거나 공격적인 콘텐츠를 포함하여 인간의 부정적인 측면을 모방하는 경향도 있습니다.


이 글에서는 사전 학습된 거대언어 모델의 잠재력에 대한 두 가지 대조적인 관점을 제시합니다. 일부 연구자들은 이러한 모델의 통계적 패턴 매칭 능력이 생물학적 에이전트에서 발견되는 지능과는 근본적으로 다르다고 생각합니다. 다른 연구자들은 이러한 모델이 매개변수를 조작하고 여러 영역에서 개념을 변환하는 능력을 통해 지능의 예비 징후를 보인다고 주장합니다.


저자는 사전 학습된 대규모 모델의 기능을 이해하는 데 진전을 이루기 위해 학습 기능과 벤치마크를 넘어서서 살펴볼 것을 제안합니다. 철학과 인지 과학 연구에 비추어 '이해', '추론', '지능'과 같은 용어를 정의하는 것이 필수적입니다. 또한 이러한 모델을 리버스 엔지니어링하고 기본 메커니즘을 더 깊이 이해하려는 노력도 계속되고 있습니다.


결론적으로, 이 글에서는 사전 학습된 대규모 모델을 실제 애플리케이션에 배포할 때 인간 행동을 모방할 수 있으므로 주의를 기울일 것을 촉구합니다. 이러한 모델에는 한계가 있고 그 결과물을 비판적으로 평가해야 하지만, AI 발전에 기여할 수 있는 잠재력이 있습니다.



질문1: 사전 학습된 모델과 같은 고급 AI 기술로 작업할 때 연구자가 염두에 두어야 할 윤리적 고려 사항은 무엇인가요?


연구원은 사전 학습된 모델과 같은 고급 AI 기술을 사용할 때 다음과 같은 윤리적 고려 사항을 염두에 두어야 합니다.

  • 편견과 공정성: 사전 학습된 모델은 학습된 데이터에 존재하는 편견을 지속시켜 불공정하거나 차별적인 결과를 초래할 수 있습니다.연구원은 기술이 공정하고 공평하게 사용될 수 있도록 이러한 편견을 파악하고 완화하기 위해 노력해야 합니다.

  • 프라이버시 및 보안: AI 모델은 의료 기록 또는 금융 정보와 같은 민감하거나 개인적인 데이터를 처리할 수 있습니다.연구원은 이러한 데이터를 무단 액세스나 오용으로부터 보호하기 위한 조치를 취해야 합니다.

  • 투명성 및 설명 가능성: 사전 학습된 모델이 의사 결정에 어떻게 도달하는지 이해하기 어려울 수 있으며, 이로 인해 오류나 편향을 식별하고 수정하기가 어려울 수 있습니다.연구원은 책임성과 신뢰성을 보장하기 위해 모델을 투명하고 설명 가능하게 만들기 위해 노력해야 합니다.

  • 사회적 및 환경적 영향: AI 기술은 사회와 환경에 긍정적이든 부정적이든 상당한 영향을 미칠 수 있습니다.연구자는 연구의 잠재적 영향을 고려하고 부정적인 영향을 최소화하기 위해 노력해야 합니다.

  • 책임감 있는 사용: 연구자는 연구의 잠재적 적용 및 영향을 고려하고 기술이 책임감 있고 윤리적인 방식으로 사용되도록 해야 합니다.여기에는 기술 사용 방법에 대한 지침이나 제한을 설정하거나 이해 관계자와 협력하여 우려 사항이 해결되도록 하는 것이 포함될 수 있습니다.


질문2: Google의 LaMDA 챗봇과 관련하여 지각의 개념을 설명해 주겠어요? 다른 형태의 인공 지능과 어떻게 다른가요?


구글 엔지니어 블레이크 르모인은 구글의 AI 챗봇인 LamDA가 지각이 있다고 주장했습니다.지각이란 감정이나 감각과 같은 사물을 지각하고 느끼는 능력을 말합니다.인공지능과 관련하여 지각은 기계가 인간과 유사한 주관적 경험과 의식을 가질 수 있다는 것을 의미하기 때문에 논란의 여지가 있는 개념입니다.

그러나 LamDA에 대한 지각력 주장은 AI 커뮤니티에서 널리 받아들여지지 않고 있으며, 기계가 지각이 있다는 것이 무엇을 의미하는지에 대한 논쟁이 계속되고 있다는 점에 유의해야 합니다.LamDA는 자연어 대화에 참여하고 학습 데이터를 기반으로 응답을 생성할 수 있는 사전 학습된 AI 모델입니다.LamDA는 AI 기술의 인상적인 예이지만 기본 원리와 기능 측면에서 다른 형태의 AI와 근본적으로 다르지 않습니다.



질문3-1: 라파엘의 글에서 언급한 '확률적 카멜레온'은 '확률적 앵무새'와 어떻게 다른가요?


사전 훈련된 AI 모델에 대한 연구 논문에 대한 주어진 정보에는 “확률적 카멜레온” 또는 “확률적 앵무새”에 대한 언급이 없습니다.따라서 이 질문에 대한 답을 드릴 수 없습니다.



질문3-2: 아니요. 이 글에서 분명 다음과 같이 언급하고 있습니다. 그러니 '확률적 카멜레온'에 대해 설명해 주세요.


사전 학습된 대규모 모델이 하는 일의 대부분은 일종의 인공 모방이라고 할 수 있습니다. 확률적 앵무새가 아니라 확률적 카멜레온이라고 부를 수 있습니다. 앵무새는 정해진 문구를 반복하지만 카멜레온은 새로운 환경에 자연스럽게 녹아듭니다. 이 차이는 아이러니하게도 의미론의 문제처럼 보일 수 있습니다. 그러나 사전 학습된 대규모 모델의 능력, 한계 및 잠재적 위험을 강조하는 데 있어서는 중요한 의미가 있습니다. 거의 모든 프롬프트의 내용, 어조 및 스타일에 적응할 수 있는 능력은 이 모델을 매우 인상적으로 만들기도 하지만 잠재적으로 해로울 수도 있습니다.

저자는 인공 지능 (AI) 분야에서 사전 학습된 대규모 모델이 주로 인공 모방의 한 형태에 사용된다고 제안합니다. “모방”이라는 용어는 이러한 모델이 다양한 프롬프트 또는 입력의 패턴, 스타일 및 내용을 모방하거나 복제하는 능력을 말합니다.

저자는 이 모델들을 통조림 문구를 반복하는 것으로 알려진 앵무새와 새로운 환경에 자연스럽게 녹아드는 카멜레온을 비교합니다. 앵무새와 카멜레온의 차이는 의미론의 문제처럼 보일 수 있지만 사전 학습된 대규모 모델의 용량, 한계 및 잠재적 위험을 강조한다는 측면에서 의미가 있습니다.

이러한 모델은 인종차별적, 성차별적, 혐오적 콘텐츠를 포함한 거의 모든 프롬프트에 적응할 수 있기 때문에 인상적이면서도 잠재적으로 해로울 수 있습니다. 저자는 이러한 모델을 확률적 앵무새라기보다는 확률적 카멜레온이라고 불러야 한다고 제안합니다. 다양한 상황과 입력에 더 정교하고 미묘한 방식으로 적응할 수 있기 때문입니다. 카멜레온이 주변 환경과 조화를 이루는 능력과 같은 생물학적 모방과의 비교는 모방에 지능이나 선택의지가 필요하지 않다는 사실을 강조합니다.

대신 사전 학습된 대규모 모델의 인공 모방에는 컨텍스트에 따라 모델의 잠재 공간 영역을 샘플링하여 일치 문제를 해결하는 것이 포함됩니다. 전반적으로 저자의 주장은 AI에서 사전 학습된 대규모 모델은 다양한 입력을 모방하고 이에 적응하는 능력이 뛰어나지만 신중하게 고려하고 해결해야 할 상당한 위험과 한계도 내포한다는 것입니다.

조회수 84회댓글 0개

최근 게시물

전체 보기

Comments


bottom of page