나오미 클라인, <AI 기계는 '환각'하지 않습니다. 하지만 그들의 제작자들은...>라는 기고문(가디언지, 23.05.08)을 챗GPT와 딥엘, 사이스페이스를 사용해 요약, 분석, 비평을 시도한 실험적인 문건이다. 정보의 변환 과정을 절차적으로 진행하되, 기계의 실수를 걸러내고 취사선택하는 최종 책임지는 자는 인간감독자 오영진이다 . 원본의 글을 읽고, 메타분석문 읽기를 권장한다.

이 글에 의하면, 기술 기업 CEO와 제너레이티브 AI 지지자들은 종종 AI 오류를 '환각'이라고 부르며, 이를 물리적으로 존재하지 않는 사물을 인식하는 인간 두뇌의 능력과 연결 짓기도 합니다. 이러한 용어 선택은 AI가 인류를 혁신할 수 있는 지적인 존재를 탄생시킨다는 신화에 힘을 실어줍니다. 그러나 실제 환상은 AI를 사회의 모든 문제에 대한 해결책으로 생각하는 기술 기업 CEO들 사이에서 일어나고 있습니다.
실제로 AI는 인간의 필요를 충족하고 환경을 보호하는 데 초점을 맞춘 다른 경제 및 사회적 프레임워크 내에서 배포될 때만 인류에게 도움이 될 것입니다. 이윤 극대화를 추구하는 현재의 시스템에서는 더 많은 부를 창출하고 환경을 파괴하기 위해 AI를 악용할 가능성이 높습니다. AI에 대한 유토피아적 주장은 구글, 마이크로소프트, 아마존과 같은 부유한 기업들이 인간의 지식을 대량으로 도용하는 것을 은폐하는 역할을 합니다. 이들 기업은 허가나 보상 없이 저작권이 있는 자료에 대해 AI 모델을 학습시킴으로써 중대한 예술 절도 행위에 가담하고 있습니다.
실리콘 밸리는 종종 이러한 절도를 '파괴'로 포장하고 규제를 회피하여 사회적, 정치적, 경제적 결과를 초래하는 기술의 무분별한 성장으로 이어집니다. AI가 기후 위기를 해결하거나 현명한 거버넌스를 제공한다는 약속은 당면한 실제 문제에서 주의를 돌리는 환상에 불과합니다. AI는 막대한 에너지 소비와 소비주의 문화에 기여함으로써 기후 위기를 더욱 악화시킬 가능성이 높습니다.
또한 AI로 인한 딥페이크의 확산과 정보에 대한 신뢰의 약화는 집단적 문제 해결을 방해할 것입니다. AI가 증거 기반 프로그램을 제공함으로써 거버넌스를 개선할 것이라는 생각은 기업의 영향력과 이익 중심 정책의 근본적인 문제를 무시합니다. AI가 돈과 정책 결정 사이의 연결 고리를 끊는 것이 이상적이지만, 거대 기술 기업들은 최소한의 규제를 보장하기 위해 광범위한 로비를 벌이며 자신들의 이익을 보호하고 있습니다. 이러한 어려움에도 불구하고 기술 기업 CEO들은 정치인들이 데이터를 기반으로 의사결정을 내리고 공익을 우선시하는 세상에 대한 낙관적인 환상을 유지하고 있습니다. 궁극적으로 시스템적 결함과 권력 불균형을 해결하지 않는다면 AI의 잠재력은 실현되지 않고 위험은 지속될 것입니다.
질문1: 이 글에서 암시하는 인공지능과 권력의 문제에 대해 재논평 해 주세요.
이 기사는 다음을 포함하여 인공 지능 및 전력과 관련된 몇 가지 문제를 암시합니다.
기술 CEO와 일반 대중 간의 권력 역학: 이 기사는 기술 CEO가 위험과 한계를 경시하면서 AI 기술의 이점을 홍보하기 위해 자신의 힘과 영향력을 사용하고 있음을 시사합니다.이로 인해 대중이 AI 기술의 잠재적 영향에 대해 충분히 알지 못하고 이러한 기술이 어떻게 개발되고 배포되는지에 대해 발언권이 없는 상황이 발생할 수 있습니다.
AI 시스템 자체의 힘: 이 기사에서는 챗봇의 “환각” 문제와 같은 AI 시스템의 잠재적 위험과 한계를 강조합니다.이러한 문제는 의도하지 않은 결과를 초래하고 사회에 부정적인 영향을 미칠 수 있으며 시스템이 구축되면 해결하기가 어려울 수 있습니다.
AI 개발의 투명성과 책임성 부족: 이 기사는 AI 시스템 개발의 투명성과 책임성이 부족하여 의도하지 않은 결과를 초래하고 사회에 부정적인 영향을 미칠 수 있음을 시사합니다.이는 규제나 감독의 부재 또는 AI 기술 개발의 독점적 특성 때문일 수 있습니다.
전반적으로, 이 기사는 AI 기술의 개발 및 배포에 상당한 권력 역학이 작용하고 있으며 이러한 역학이 사회 전체에 중요한 영향을 미칠 수 있음을 암시합니다.
질문2: 생성 AI와 관련하여 "환각"이라는 용어의 사용을 둘러싼 논쟁은 무엇이며, 이것이 중요한 이유는 무엇인가요?
생성 AI와 관련하여 “환각”이라는 용어의 사용을 둘러싼 논쟁은 이 용어가 챗봇과 다른 AI 시스템의 오류와 한계를 정확하게 설명하는지에 초점을 맞추고 있습니다. 일부에서는 “환각”이라는 용어가 AI 시스템에 존재하지 않는 수준의 창의성이나 상상력을 의미하며, 이 용어를 사용하여 이러한 시스템의 오류와 한계를 설명하는 것은 오해의 소지가 있다고 주장합니다. 그러나 “환각”이라는 용어는 AI 시스템이 현실이나 정확한 정보에 기반하지 않은 반응을 생성하고 있으며, 이는 의료 또는 금융과 같은 특정 상황에서 심각한 결과를 초래할 수 있다는 사실을 강조하기 때문에 적절하다고 주장하는 사람들도 있습니다. 이 논쟁은 AI 시스템의 역량과 한계를 논의할 때 명확하고 정확한 언어가 필요하다는 점을 강조하기 때문에 중요합니다.오해의 소지가 있거나 부정확한 언어를 사용하면 오해와 잘못된 의사소통으로 이어질 수 있으며 궁극적으로 AI 연구 분야의 발전을 저해할 수 있습니다.
질문3-1: 인공지능 기술 개발사에 대한 이 글의 비판은 어느 정도 온당한가요?
이 기사는 제너레이티브 AI의 이점에 대한 기술 CEO와 그들의 주장을 비판하며, 이들이 이러한 시스템의 기능을 과장하고 잠재적 위험과 한계를 무시하고 있다고 주장합니다.이 기사는 이러한 주장이 합리적이지 않으며 기술에 대한 진정한 이해보다는 과대 광고와 마케팅에 의해 주도될 수 있다고 제안합니다.
이 기사에서는 챗봇의 “환각” 문제와 같은 제너레이티브 AI의 한계와 과제에 대한 몇 가지 예를 제시하면서 개발자들이 이러한 문제를 적절하게 해결하지 못하고 있다고 주장합니다.이 기사는 또한 AI 시스템 개발의 투명성과 책임성이 부족하여 의도하지 않은 결과를 초래하고 사회에 부정적인 영향을 미칠 수 있다고 제안합니다.
전반적으로 AI 기술 개발자에 대한 기사의 비판은 AI 시스템 개발에서 해결해야 할 중요한 문제와 과제를 강조한다는 점에서 합리적입니다.그러나 이 기사는 이 주제에 대한 하나의 관점일 뿐이며 AI 기술의 이점과 위험에 대한 다양한 의견과 관점이 있다는 점에 유의해야 합니다.
질문3-2: 아니야. 이 글은 개발사의 기술개발 한계에 대한 비판을 담고 있지 않아. 개발사의 기술유토피아적 전망이 많은 부분 거짓말이고, 진짜 환각증세는 개별 챗봇의 거짓말이 아니라 개발사의 거짓말이라는 점이 중요한 주장이야.
*기계 답변에 큰 의미가 없어 생략
질문4: 인공지능 기술이 환경파괴와 관련 맺는 부분에 대해 설명해 주세요.
주어진 기사는 인공 지능 기술과 환경 피해 사이의 관계를 직접적으로 논의하지 않습니다.따라서 기사에 제공된 정보를 바탕으로 이 질문에 대한 적절한 답변을 제공할 수 없습니다.
질문5: 순다르 피차이가 말한 '환각 문제'에 대해 좀 더 자세히 설명해 주시겠어요? 여기서 구체적으로 어떤 문제를 언급하고 있나요?
구글과 알파벳의 CEO인 순르 피차이는 제너레이티브 AI, 특히 챗봇의 맥락에서 “환각 문제”를 언급했다. 그는 완전히 조작되거나 “환각적인” 응답이 아니라 사용자의 요청에 정확하고 관련성이 높은 응답을 생성할 수 있는 챗봇을 만드는 데 따르는 어려움을 언급했습니다.
그가 언급한 구체적인 과제는 다음과 같습니다.
상황에 대한 이해의 제한: 챗봇은 대화의 맥락을 이해하는 데 어려움을 겪을 수 있으며, 이로 인해 관련이 없거나 혼란스러운 응답이 나올 수 있습니다.
창의성 부족: 챗봇은 학습된 데이터를 기반으로 응답만 생성할 수 있으며, 이로 인해 창의적이거나 독창적인 콘텐츠를 생성하는 능력이 제한될 수 있습니다.
복잡한 작업을 처리할 수 없음: 챗봇은 여러 단계 또는 의사 결정 프로세스가 필요한 복잡한 작업을 처리하는 데 어려움을 겪을 수 있습니다.
오류 및 편향: 챗봇은 학습된 데이터를 기반으로 오류를 범하거나 편견을 보일 수 있으며, 이는 부정확하거나 부당한 대응으로 이어질 수 있습니다.
전반적으로 순다르 피차이의 성명서는 특히 챗봇과 관련하여 효과적인 제너레이티브 AI 시스템을 개발하는 데 따르는 어려움과 이러한 문제를 해결하기 위한 지속적인 연구 개발의 필요성을 강조합니다.
질문6: 이 글에서 언급한 인공지능 기술의 한계와 권력구조 문제를 더 잘 이해하면 향후 인공지능 연구의 발전에 어떤 영향을 미칠 수 있을까요?
챗봇 및 기타 생성 AI 시스템에서 입증된 바와 같이 AI의 한계와 잠재적 위험을 더 잘 이해하면 다음과 같은 여러 가지 방식으로 인공 지능 연구의 향후 발전에 영향을 미칠 수 있습니다.
AI 시스템의 정확성 및 신뢰성 향상: AI 시스템의 한계를 이해함으로써 연구자들은 복잡한 작업을 처리하고 공정하고 편향되지 않은 결정을 내릴 수 있는 보다 정확하고 신뢰할 수 있는 AI 시스템을 개발하기 위해 노력할 수 있습니다.
윤리적 문제 해결: 연구자들은 AI의 잠재적 위험을 이해함으로써 개인 정보 보호, 보안 및 AI 시스템이 인간에게 해로운 결정을 내릴 가능성과 같은 AI 사용과 관련된 윤리적 문제를 해결하기 위해 노력할 수 있습니다.
AI를 위한 새로운 애플리케이션 개발: AI의 역량과 한계를 이해함으로써 연구자들은 의료, 교육 및 교통과 같은 분야에서 AI를 위한 새로운 애플리케이션을 개발하는 동시에 이러한 애플리케이션이 안전하고 효과적인지 확인할 수 있습니다.
전반적으로 AI와 관련된 문제를 더 잘 이해하면 AI 연구의 향후 발전을 이끌고 AI 시스템이 책임감 있고 윤리적인 방식으로 개발되도록 하는 데 도움이 될 수 있습니다.
*현재 기계는 인공지능과 권력구조, 정치성을 논평하기 어렵다는 판단을 인간감독자가 내렸기에 더 이상 관련 질문하지 않겠음
Comentarios