top of page

메타분석: 테드 창, <챗GPT는 웹의 흐릿한 이미지다> / 챗GPT, 딥엘, 사이스페이스, 오영진

다음의 글은 테드 창, <챗GPT는 웹의 흐릿한 이미지다ㅣ라는 기고문(가디언지, 23.05.08) GPT 딥엘, 사이스페이스를 사용해 요약, 분석, 비평을 시도 실험적인 문건이다. 정보의 변환 과정을 절차적으로 진행하되, 기계의 실수를 걸러내고 취사선택하는 최종 책임지는 자는 인간감독자 오영진이다 . 원본의 글을 읽고, 메타분석문 읽기를 권장한다.

‘기계가 자신의 생성물을 먹이로 삼는다’를 미드저니 봇이 생성. 프롬프트 오영진

이 글에서는 ChatGPT와 같은 대규모 언어 모델과 손실 압축 알고리즘 간의 관계에 대해 설명합니다. 먼저 손실 압축 형식을 사용한 제록스 복사기에서 평면도 사본의 라벨이 잘못 인쇄된 사건에 대해 설명합니다. 무손실 압축과 손실 압축의 개념을 소개하고 작동 방식과 다양한 영역에서의 적용 사례를 설명합니다. 또한 이미지의 압축 아티팩트와 대규모 언어 모델에서 생성되는 '환각' 또는 무의미한 답변 사이의 유사점을 도출합니다. 이 글의 저자는 대규모 언어 모델이 텍스트를 생성하는 능력은 인상적이지만 본질적으로 손실이 있는 텍스트 압축 알고리즘으로 작동한다고 주장합니다. 근사치를 생성할 수는 있지만 생성하는 콘텐츠에 대한 진정한 이해가 부족합니다.

특히 산술 영역에서 대규모 언어 모델의 한계를 살펴봅니다. GPT-3과 같은 모델은 두 자리 숫자의 간단한 산술에 대해서는 정답을 제공할 수 있지만, 숫자가 커지면 정확도가 크게 떨어집니다. 이는 대규모 언어 모델이 산술의 원리를 제대로 파악하지 못하고 통계적 분석과 근사치에 의존하고 있음을 시사합니다.

이 글에서는 검색 엔진 및 콘텐츠 생성 등의 작업에 대규모 언어 모델이 적합한지에 대한 의문을 제기합니다. 대규모 언어 모델을 검색 엔진으로 사용하려면 선전과 음모론을 배제할 수 있는 능력에 대한 확신이 필요하며, 손실 압축으로 인한 흐릿함의 문제도 해결해야 한다고 제안합니다. 대규모 언어 모델을 사용하여 정보를 재가공하는 콘텐츠 밀의 부상은 온라인에서 정확한 정보를 찾는 데 어려움을 가중시킬 수 있습니다.

저자는 곧 출시될 GPT-4를 언급하며 대규모 언어 모델의 미래에 대해 추측하고, 새로운 모델을 학습할 때 이전 모델에서 생성된 텍스트를 제외하는 것은 손실 압축의 한계를 인식하고 있다는 것을 의미한다고 제안합니다. 대규모 언어 모델에서 생성된 텍스트를 학습 자료로 사용하려는 기업의 의지가 품질을 평가하는 기준이 될 수 있습니다.

원본 글에 대규모 언어 모델을 사용하는 것과 관련하여 이 글은 원본이 아닌 모호한 사본으로 시작하는 것이 좋은 접근 방식이라는 개념에 반대합니다. 이 글은 창작 과정에서 투쟁, 노력, 재작성 과정의 중요성을 강조합니다. 또한 큰 언어 모델에 의존하는 것은 독창적인 아이디어의 개발과 생각을 효과적으로 전달하는 능력을 약화시킬 수 있다고 제안합니다.

결론적으로 이 글에서는 검색 엔진을 대체할 수 있는 대규모 언어 모델의 유용성, 콘텐츠 생성에 미치는 잠재적 영향, 독창적인 글을 작성하는 데 있어 그 가치에 대해 의문을 제기합니다. 또한 손실 텍스트 압축 알고리즘으로서의 대규모 언어 모델의 한계를 강조하고 다양한 영역에서 이해와 창작 과정의 중요성을 강조합니다.


질문1: 이 저자의 생성인공지능에 대한 태도는 무엇인가?


제너레이티브 인공 지능에 대한 저자의 태도는 복잡하고 미묘한 차이가 있습니다.이 기사는 OpenAI의 ChatGPT와 같은 대규모 언어 모델이 많은 양의 텍스트를 압축하고 요약할 때 얻을 수 있는 이점을 인정하지만, 저자는 이러한 모델과 관련된 한계와 잠재적 위험에 대해서도 우려하고 있습니다.원본이 아닌 작품을 흐릿하게 복사해서 시작하는 것은 독창적인 작품을 만드는 좋은 방법이 아니며, 졸업한다고 자신의 생각을 표현하기 위한 고군분투가 사라지지는 않는다고 기사는 제안합니다.저자는 올바른 단어를 고르고 문장들이 서로 더 잘 따라갈 수 있도록 재정렬하는 데 드는 시간을 통해 산문이 의미를 전달하는 방법을 배울 수 있으며, 학생들에게 에세이를 쓰게 하는 것은 단순히 자료에 대한 이해도를 테스트하는 방법이 아니라 생각을 명확하게 표현하는 경험을 준다고 주장합니다.전반적으로 저자는 글쓰기에서 생성적 인공지능을 사용하는 것에 대해 조심스러워 보이며 인간의 창의성과 비판적 사고의 중요성을 강조한다.


질문2: 이 글의 목적은 무엇인가?


이 글의 목적은 OpenAI의 ChatGPT와 같은 대규모 언어 모델과 관련된 한계와 잠재적 위험에 대해 논의하고 이러한 모델을 사용할 때 이러한 문제를 고려해야 할 필요성을 주장하는 것입니다.이 기사에서는 Xerox 복사기에서 사용하는 손실이 많은 압축 형식과 대형 언어 모델이 텍스트를 압축하는 데 사용하는 손실이 많은 알고리즘을 비교하고 이러한 모델을 사용하면 출력에 부정확성과 왜곡이 발생할 수 있다고 제안합니다.이 기사는 또한 독창적인 아이디어를 개발하는 데 있어 글쓰기 프로세스의 중요성을 강조하고 텍스트를 생성하기 위해 대규모 언어 모델에 의존하는 것이 이러한 과정을 방해할 수 있다고 주장합니다.


질문3: 생성인공지능을 복사기의 사례에 빗대어 설명하는 것은 옳은가?


네, 이 기사에서는 제너레이티브 인공 지능과 Xerox 복사기가 사용하는 손실이 많은 압축 형식을 비교하여 대규모 언어 모델과 관련된 한계와 잠재적 위험을 설명합니다.이 기사는 대형 언어 모델에서 손실이 많은 알고리즘을 사용하면 출력에 부정확성과 왜곡이 발생할 수 있다고 제안합니다. 이는 복사기가 읽을 수 있지만 잘못된 숫자를 생성하는 방식과 유사하게, 그렇지 않을 때 사본이 정확해 보이게 만드는 것과 유사합니다.


*사실 챗GPT는 이 사례 들기의 옳고 그름을 판단하지 못한다. 유사하다는 주장을 옳다고 받아들일 뿐이다.


질문4: 생성인공지능을 창의적으로 사용할 방법은 없는가? 이 논문에 의거한다면?


이 글에서는 OpenAI의 ChatGPT와 같은 대규모 언어 모델이 대량의 텍스트를 압축하고 요약할 때 얻을 수 있는 이점을 설명합니다.이 기사는 이러한 모델과 관련된 한계와 잠재적 위험에 대한 우려를 제기하지만 제너레이티브 인공 지능을 사용하는 창의적인 방법이 없다는 것을 시사하지는 않습니다.사실, 이 기사는 미래에 우리가 세상에 대한 자신의 경험만을 바탕으로 훌륭한 산문을 쓸 수 있는 인공지능을 만들 수 있다는 것을 인정합니다. 그리고 그것을 달성하는 날은 참으로 중요할 것입니다.그러나 이 기사는 지금이 우리의 예측 범위를 훨씬 넘어서고 있으며, 그러는 동안 창의적 글쓰기나 비판적 사고를 위해 대규모 언어 모델에 너무 많이 의존하는 것은 조심해야 한다고 제안합니다.따라서 이 글에서는 제너레이티브 인공 지능을 사용하는 창의적인 방법에 대한 포괄적인 개요를 제공하지는 않지만, 대량의 텍스트를 압축하고 요약하는 것과 같은 특정 상황에서는 이러한 모델에 잠재적인 이점이 있을 수 있음을 시사합니다.


질문5: 생성인공지능의 생성물만 인터넷에 가득하다면 어떤 문제가 발생하는가?


이 기사는 인터넷이 제너레이티브 인공 지능 제품으로만 가득 차 있다면 몇 가지 잠재적인 문제가 발생할 것이라고 제안합니다.여기에는 다음이 포함됩니다.

  • 독창성 상실: 인터넷상의 모든 콘텐츠가 인공지능에 의해 생성된 경우 콘텐츠가 인간의 경험이나 관점이 아닌 통계 패턴에만 기반하기 때문에 독창성과 창의성이 부족합니다.

  • 비판적 사고 부족: 사람들이 콘텐츠를 생성할 때 인공지능에 너무 많이 의존하면 콘텐츠에 적극적으로 참여하거나 자신만의 아이디어를 만들어내지 못하기 때문에 비판적이고 독립적으로 사고하는 능력을 잃을 수 있습니다.

  • 편향 및 잘못된 정보의 가능성: 대규모 언어 모델은 편향이나 부정확성을 포함할 수 있는 대규모 데이터 세트를 대상으로 학습됩니다.이러한 편견이 해결되지 않으면 인공지능이 생성한 콘텐츠에 영구적으로 반영될 수 있습니다.

  • 기술에 대한 의존도: 사람들이 콘텐츠를 생성할 때 인공지능에 너무 많이 의존하게 되면 기술에 지나치게 의존하게 되고, AI 없이는 효과적으로 의사소통하거나 창의적으로 사고하는 능력을 상실할 수 있습니다.

전반적으로 이 기사는 대규모 언어 모델이 잠재적인 이점이 있지만 창의적 글쓰기나 비판적 사고를 위해 언어 모델에 너무 많이 의존하는 데에는 상당한 위험도 따른다는 점을 시사합니다.


*마침! 기계 생성물을 기계가 되먹임해서 학습할 때 문제점을 다룬 논문이 있다. 아래의 링크!


조회수 125회댓글 0개

Σχόλια


bottom of page