Google의 LaMDA AI는 무엇이며 Google 엔지니어는 왜 그것이 합리적이라고 생각합니까?

Google의 LaMDA AI는 무엇이며 Google 엔지니어는 왜 그것이 합리적이라고 생각합니까?

Google의 수석 엔지니어는 LaMDA 의 인공 지능이 지능화되었다고 말했습니다 . 당신이 그것이 혼란스럽든 흥미진진하다고 느끼든, 이것은 매우 대담한 주장이며 아마도 그것이 완전히 사실이었더라도 증명하기 어려울 것입니다.

LAMD란?

LaMDA는 대화 응용 프로그램용 언어 모델의 약자입니다. 즉, 자연스러운 대화를 생성하도록 특별히 설계된 기계 학습 언어 모델입니다. 머신 러닝 기술을 통해 컴퓨터는 데이터에서 패턴과 관계를 발견할 수 있습니다. 예를 들어, 모든 셰익스피어 작품에 대해 GPT-3 (또 다른 고급 시스템)과 같은 기계 학습 알고리즘을 “훈련”시킨 다음 셰익스피어처럼 읽는 새로운 원본 텍스트를 생성하도록 할 수 있습니다.

Sundar Pichai(Google CEO) 가 Yahoo Finance와의 인터뷰 에서 설명 했듯이 LaMDA는 대화에 대해 특별히 훈련된 시스템이라는 특징이 있습니다. 목표는 Google 시스템이 사용자와 인간의 열린 대화에 참여할 수 있도록 하는 것입니다.

즉, Google 제품에 특정 사항을 묻는 사람들이 생각이나 말을 바꾸면 안 됩니다. 그들은 다른 사람과 같은 방식으로 컴퓨터 시스템과 상호 작용할 수 있습니다.

내부적으로 모든 최신 기계 학습 모델은 복잡한 수학적 및 통계적 모델입니다. 그들은 데이터에서 찾은 기본 패턴을 기반으로 알고리즘을 생성합니다. 그들에게 충분한 고품질 데이터를 제공하면 이러한 알고리즘은 지금까지 인간이나 다른 지각 있는 존재만이 할 수 있었던 일을 매우 효율적으로 수행할 것입니다.

Google 엔지니어가 LaMDA가 합리적이라고 생각하는 이유는 무엇입니까?

문제의 엔지니어는 Blake Lemoine으로,  LaMDA가 합리적인 이유에 대한 주장의 일부로 자신과 LaMDA 간의 인터뷰를 발표했습니다 . Lemoine은 소프트웨어와 대화하고, 질문하고, 어려운 질문을 하고, 복잡하고 적절한 답변이 지각 있는 존재가 아닌 다른 어떤 것의 산물일 수 있다는 사실을 믿기 어렵게 된 지 몇 달을 보냈습니다.

Lemoine이 왜 이런 식으로 생각하는지 이해하려는 사람이 LaMDA의 응답을 읽고 이것이 왜 그렇게 설득력 있는 입장인지 이해한다면 더 좋을 것입니다. LaMDA의 응답은 너무 인간적이어서 인간이 대화형 AI와 진지한 관계를 발전시키는 이야기인 Spike Jonze의 Her 에 나오는 가상의 개인 비서 AI와 비슷합니다.

LaMDA에 대한 Lemoine의 주장에 무게가 있든 없든 LaMDA 디자인의 전체 목적은 자연스럽고 믿을 수 있는 열린 대화를 만드는 것입니다. 따라서 이러한 의미에서 그의 믿음은 Google이 믿을 수 있는 대화를 만드는 데 눈에 띄게 성공했음을 나타냅니다. 어떤 인공 지능 시스템이 사람에게 그것이 지능적이라고 확신시키려 한다면, 아마도 이를 위해 특별히 설계된 시스템일 것입니다.

문제는 합리성에 대한 주장이 여러 과학적, 철학적 이유로 실제로 검증될 수 없다는 것입니다(또는 적어도 실현 가능하지 않거나 윤리적으로 검증 가능하지 않음). 그 이유를 이해하려면 “느낌”이 무엇을 의미하는지 간단히 생각해 보아야 합니다.

감도는 무엇입니까?

“느낌”이라는 단어는 본질적으로 무언가(고양이, 사람 또는 마법의 융단)가 느낄 수 있는 능력이 있음을 의미합니다. 그것은 “sentimental” 또는 “sentiment”와 같은 어근을 가지고 있습니다. 느낌은 무언가를 느낄 수 있는 능력이 있다는 의미만은 아닙니다. 온도 조절 장치는 온도를 측정할 수 있음에도 불구하고 거의 확실히 지각이 없습니다. 반대로 감수성은 감정의 주관적인 경험이며, 우선 “주체”의 존재를 의미합니다.

Lemoine이 “이성”, “지성” 및 “의식”과 같은 별도의 개념과 상호 교환적으로 “느낌”이라는 단어를 사용할 가능성이 높기 때문에 여기에서 의미론에 빠지는 것은 위험합니다. 따라서 논증을 통해 여기에서 가장 관대한 해석은 Lemoine이 Lamda를 자의식 있는 존재로 간주하고, 사물을 느끼고, 신념을 유지하고, 우리가 일반적으로 생명체에 귀속하는 방식으로 사물을 경험할 수 있는 것으로 간주한다는 것입니다.

보충 기사 에서 Lemoine은 LaMDA가 “원하는” 것과 “믿는 것”이 ​​무엇인지 논의합니다. 이는 그의 프레젠테이션에서 “느낌”이 엄격한 사전 정의 이상을 의미한다는 아이디어를 강화합니다 .

우리는 감정과 의식을 처음부터 이해하지 못한다.

문제는 다음과 같습니다. 우리는 마음, 의식, 지능 및 이러한 속성을 가진 존재가 된다는 것이 무엇을 의미하는지에 대해 상대적으로 거의 알지 못합니다. 아이러니하게도 머신 러닝 기술은 결국 우리 마음과 그것이 존재하는 두뇌의 신비를 푸는 데 도움이 될 수 있습니다.

철학자들과 과학자들이 의식의 “블랙박스”를 분류하고 있는 동안 , 그것은 여전히 ​​부분들의 합보다 더 큰 무언가의 결과인 것 같습니다. 의식은 “창발적인” 것인 것 같습니다. 그것은 많은 다른 신경 하위 시스템의 상호 작용에 의해 생성된 “유령”이며, 그 중 어느 것도 스스로 지능적으로 보이지 않습니다.

마찬가지로 DALL-E 2 이미지 생성 시스템과 같은 복잡한 AI는 최종 제품을 만들기 위해 서로 상호 작용하는 더 간단한 기계 학습 모델로 구성됩니다. 더 간단한 시스템의 상호 작용으로 인한 복잡성에 대한 주제는 AI 세계에서 공통적인 주제이며, 각 하위 구성 요소가 어떻게 작동하는지 잘 이해할 수 있지만 최종 결과는 일반적으로 완전히 예측할 수 없습니다.

AI에서 지능을 전혀 인식할 수 있습니까?

논증을 위해 AI가 정말로 진정한 의미에서 지각이 있었다면 우리도 그렇게 말할 수 있었을까요? LaMDA는 인간의 대화 패턴을 모방하고 예측하도록 설계되었으므로 사람들이 인간의 지능과 연관시키는 것을 트리거하는 데 있어 이 데크는 정말 어렵습니다. 그러나 인간이 아닌 영장류와 돌고래, 문어, 코끼리와 같은 동물이 대체로 우리의 형제 자매임에도 불구하고 지각이 있는 것으로 간주하는 데 오랜 시간이 걸렸습니다.

지능형 AI는 너무 이질적이어서 우리가 앞을 보고 있는지조차 모를 수 있습니다. 이것은 지능의 출현을 위한 임계 조건이 무엇인지 모르기 때문에 특히 가능성이 높습니다. 데이터와 AI 하위 시스템의 올바른 조합이 올바른 방식으로 함께 혼합되면 갑자기 지각 있는 것이라고 할 수 있는 무언가가 발생할 수 있지만 우리가 이해할 수 있는 것처럼 보이지 않기 때문에 눈에 띄지 않을 수 있다는 것을 상상하는 것은 어렵지 않습니다. .

오리처럼 생겼다면..

기계가 지능적이라는 주장의 마지막 큰 문제는 인간을 포함한 다른 모든 것이 지능적이라는 주장과 같은 문제입니다. 철학적으로 말해서, 당신은 당신이 말하는 사람들 중 정말로 똑똑한 사람이 있는지 아닌지 알 수 없습니다. 이것은 지능이나 의식적 경험이 부족하다는 점을 제외하고는 인간과 완전히 구별할 수 없는 가상의 생물에 대한 사고 실험인 고전적인 철학적 좀비 문제 입니다.

그러나 Alan Turing의 유명한 테스트가 주장했듯이 AI가 “정말” 생각하고 느끼는지는 중요하지 않습니다. 중요한 것은 그것이 생각과 느낌의 외양을 너무 잘 모방하여 우리가 구별할 수 없다는 것입니다. 누구에게 물어보느냐에 따라 LaMDA는 이미 Turing 테스트 를 통과했으며 Lemoine의 검증할 수 없는 주장이 무의미해질 수 있습니다.

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다