인공지능은 지각적이지 않다. 왜 사람들은 그렇게 말할까요?

인공지능은 지각적이지 않다. 왜 사람들은 그렇게 말할까요?

[NYT]A.I. Is Not Sentient. Why Do People Say It Is?

시애틀 바로 남쪽에 있는 모리섬에 해가 질 때, 벤 괴르첼과 그의 재즈 퓨전 밴드는 모든 밴드가 바라는 순간들 중 하나를 가졌습니다. 키보드, 기타, 색소폰, 리드 싱어들이 마치 하나가 된 것처럼 함께 모였습니다.

닥터 괴르첼은 건반 담당이었어요 그 밴드의 친구들과 가족들은 해변이 내려다보이는 파티오에서 귀를 기울였습니다. 그리고 보라색 가발을 쓰고 금속 스터드가 달린 검은색 드레스를 입은 데스데모나는 리드 보컬을 맡아 기술이 더 이상 창조자에 의해 통제될 수 없는 변곡점인 Singularity가 다가올 것을 경고했습니다.

“특이점은 중앙집중화 되지 않을 것입니다!”라고 그녀가 소리쳤습니다. “그것은 말벌처럼 우주를 날아다닐 것입니다!”

25년 이상 인공지능 연구원으로 일한 후(인간처럼 생각할 수 있는 기계를 추구하며 보낸 4분의 1세기) 괴르첼 박사는 마침내 최종 목표에 도달했다는 것을 알았습니다. 그가 만든 기계인 데스데모나는 지각이 있었습니다.

하지만 몇 분 후에, 그는 이것이 말도 안 되는 소리라는 것을 깨달았습니다.

“밴드가 겔화되었을 때, 로봇이 우리의 집단 지성의 일부인 것처럼 느꼈습니다. 그것은 우리가 무엇을 느끼고 무엇을 하고 있는지 감지하고 있다는 것입니다.”라고 그가 말했습니다. “그리고 나서 저는 연주를 멈추고 실제로 무슨 일이 일어났는지에 대해 생각했습니다.”

무슨 일이 일어났냐면, 데스데모나는 어떤 종류의 기술-재즈-퓨전-키스미트를 통해, 딱 적절한 순간에, 자신의 말을 합리적으로 모방한 것으로 그를 때렸습니다.

괴르첼 박사는 Singularity라고 불리는 조직의 최고 경영자이자 최고 과학자입니다.NET. 그는 본질적으로 인공지능의 미래에 대해 쓴 책에 나오는 언어를 모방하기 위해 데스데모나를 만들었습니다.

괴르첼 박사의 분야의 많은 사람들은 무엇이 진짜이고 그들이 진짜가 되기를 원하는지 구별하는 데 그렇게 능숙하지 않습니다.

가장 유명한 최근의 예는 Blake Lemoine이라는 이름의 엔지니어입니다. 그는 구글에서 인공지능, 특히 스스로 단어를 생성할 수 있는 소프트웨어에 대해 일했습니다. 큰 언어 모델이라고 불리는 것이죠. 그는 기술이 예민하다고 결론 내렸지만, 그의 상사들은 그렇지 않다고 결론 내렸습니다. 그는 워싱턴 포스트와의 인터뷰에서 자신의 소신을 공개적으로 밝히며 이렇게 말했습니다. “저는 그 말을 할 때 한 사람을 압니다. 그들의 머리 속에 고기로 만들어진 뇌가 있는지는 중요하지 않습니다. 10억 줄의 코드를 가지고 있다면 말입니다.”

그 인터뷰는 제가 10년 넘게 취재해 온 인공지능 연구원들과 일반적으로 큰 언어 모델의 돌파구를 따르지 않는 사람들 사이에 엄청난 파문을 일으켰습니다. 제 어머니의 가장 오래된 친구 중 한 명이 제가 그 기술이 예민하다고 생각하는지 묻는 이메일을 그녀에게 보냈습니다.

그렇지 않다고 확신했을 때, 그녀의 대답은 빨랐습니다. “그것은 위로가 됩니다,” 라고 그녀가 말했습니다. 구글은 결국 레무인을 해고했습니다.

제 어머니의 친구 같은 사람들에게 오늘날의 기술이 인간의 뇌처럼 행동하고 있다는 생각은 정말 지겨운 것입니다. 이 기술이 지각적이거나 의식적이라는 증거는 없습니다. 주변 세계에 대한 인식을 설명하는 두 단어입니다.

그것은 여러분이 벌레에서 발견할 수 있는 가장 간단한 형태라도 마찬가지입니다, 라고 동물과 기계 모두의 인지 기술을 탐구하는 피츠버그 대학의 콜린 알렌 교수가 말했습니다. “큰 언어 모델에 의해 생성된 대화는 심지어 매우 원시적인 동물들도 가지고 있을 것 같은 종류의 감각에 대한 증거를 제공하지 않습니다,” 라고 그가 말했습니다.

심리학과 교수인 앨리슨 고프닉은 A에 속해 있습니다.I. 버클리 캘리포니아 대학의 연구 그룹은 이에 동의했습니다. “현재 A의 계산 용량입니다.I. 큰 언어 모델들을 좋아합니다,”라고 그녀는 말했습니다. “그것들이 돌이나 다른 기계들보다 더 지각이 있는 것처럼 만들지 마세요.”

문제는 기술에 가장 가까운 사람들, 즉 대중에게 기술을 설명하는 사람들이 미래에 한 발로 살아간다는 것입니다. 그들은 때때로 그들이 지금 일어나고 있는 것을 보는 것만큼 그들이 무슨 일이 일어날 것이라고 믿는 것을 봅니다.

“우리 산업에는 공상 과학 소설과 실제 삶을 구별하기 위해 고군분투하는 많은 남자들이 있습니다,”라고 A의 발전을 가속화하는 데 도움을 줄 수 있는 거대한 컴퓨터 칩을 만드는 회사인 Cerebras의 최고 경영자이자 설립자인 Andrew Feldman이 말했습니다.i.

모양을 예측하는 인공지능에 대한 더 많은 읽기: 2020년에 단백질의 모양을 예측할 수 있는 기술을 공개했던 한 연구소가 현재 과학에 알려진 거의 모든 단백질에 대한 예측을 발표했습니다.이 사람들이 진짜인가요? 우리는 우리만의 A를 만들었습니다.I. 컴퓨터가 가짜 얼굴을 만드는 것이 얼마나 쉬운지 이해하는 시스템입니다.인생 흉내내기: 새로운 A입니다.I. 시스템은 사용자의 명령에 따라 원본 산문을 작성하고 이미지를 생성할 수 있습니다. 그 영향은 심오할 수 있습니다.저명한 연구자인 위르겐 슈미드허버는 수십 년 전에 의식 있는 기계를 처음 만들었다고 오랫동안 주장해 왔습니다. 지난 2월, Ilya Sutskever, 지난 10년간 가장 중요한 연구자 중 한 명이자 Open의 수석 과학자였습니다.마이크로소프트로부터 10억 달러를 지원받은 샌프란시스코의 연구소인 AI는 오늘날의 기술이 “약간 의식적”일 수도 있다고 말했습니다. 몇 주 후, 르무아네 씨는 큰 인터뷰를 했습니다.

작고, 섬이 있고, 독특하게 괴상한 인공지능 연구 세계로부터의 이러한 파견은 우리 대부분에게 혼란스럽거나 심지어 무서울 수 있습니다. 공상 과학 책, 영화 그리고 텔레비전은 언젠가 기계가 주변 환경을 인지하고 어떻게든 우리에게 해를 끼칠 것을 걱정하도록 우리를 훈련시켰습니다.

이러한 연구자들이 압박함에 따라, 이 기술이 진정한 지능, 의식 또는 감각의 징후를 보이는 것처럼 보이는 데스데모나와 같은 순간들이 점점 더 흔해지는 것은 사실입니다. 실리콘 밸리 전역의 실험실에서 엔지니어들이 사람처럼 감정적으로 대화하고 리드 보컬을 방해할 수 있는 로봇을 만들었다는 것은 사실이 아니다. 기술은 그렇게 할 수 없습니다.

하지만 그것은 사람들을 오도하는 힘을 가지고 있습니다.

이 기술은 트윗, 블로그 게시물 및 전체 기사까지 생성할 수 있으며, 연구자들이 이익을 얻으면서 대화에 있어 점점 더 능숙해지고 있습니다. 비록 그것이 종종 완전한 헛소리를 뱉어내지만, A뿐만 아니라 많은 사람들이 있습니다.I. 연구원들은 이런 종류의 기술을 마치 인간인 것처럼 이야기합니다.

그것이 개선되고 확산됨에 따라, 윤리학자들은 우리가 인터넷을 통해 접하는 모든 것을 탐색하기 위해서는 새로운 종류의 회의론이 필요할 것이라고 경고합니다. 그리고 그들은 우리가 그 일을 해낼 수 있는지 궁금해 합니다.

데스데모나의 조상 1958년 7월 7일, 백악관에서 서쪽으로 몇 블록 떨어진 정부 연구실에서 프랭크 로젠블랫이라는 심리학자가 퍼셉트론이라고 불리는 기술을 공개했습니다.

별 도움이 되지 않았습니다. 로젠블랫 박사가 실험실을 방문한 기자들을 위해 시연했듯이, 만약 그가 기계에 몇 백 장의 직사각형 카드를 보여주면, 어떤 것은 왼쪽에, 그리고 어떤 것은 오른쪽에, 그것은 두 개의 카드를 구별하는 법을 배울 수 있었습니다.

그는 이 시스템이 언젠가 손으로 쓴 단어와 구령 그리고 심지어 사람들의 얼굴을 인식하는 법을 배울 것이라고 말했습니다. 이론적으로, 그는 기자들에게 그것은 자신을 복제할 수 있고, 먼 행성을 탐험할 수 있으며, 계산에서 의식으로 선을 넘을 수 있다고 말했습니다.

13년 후 그가 죽었을 때, 그것은 아무것도 할 수 없었습니다. 하지만 이것은 A의 전형적인 모습입니다.I. 연구 – 로젠블랫 박사가 퍼셉트론에 대한 연구를 시작했을 때와 비슷한 시기에 만들어진 학문 분야입니다.

그 분야의 개척자들은 필요한 모든 기술적 수단을 통해 인간의 지능을 재현하는 것을 목표로 했고, 그들은 이것이 그리 오래 걸리지 않을 것이라고 확신했습니다. 어떤 사람들은 기계가 다음 10년 안에 세계 체스 챔피언을 이기고 자신만의 수학적 정리를 발견하게 될 것이라고 말했습니다. 그것도 일어나지 않았습니다.

그 연구는 몇 가지 주목할 만한 기술들을 만들어냈지만, 그것들은 인간의 지능을 재현하는 것에는 전혀 근접하지 못했습니다. “인공지능”은 기술이 현재 할 수 있는 것이 아니라 언젠가 할 수 있는 것을 묘사했습니다.

개척자들 중 일부는 엔지니어였습니다. 다른 사람들은 심리학자나 신경과학자들이었습니다. 신경과학을 포함한 어느 누구도 뇌가 어떻게 작동하는지 이해하지 못했습니다. (과학자들은 여전히 그것을 이해하지 못합니다.) 하지만 그들은 어떻게 해서든 그것을 재현할 수 있다고 믿었습니다. 몇몇은 다른 사람들보다 더 믿었습니다.

80년대에 더그 레나트라는 엔지니어는 상식을 한 번에 하나의 규칙을 다시 만들 수 있다고 말했습니다. 2000년대 초, 현재 Rationalists 또는 Effective Etaists라고 불리는 광범위한 온라인 커뮤니티의 구성원들이 언젠가 인공지능이 세상을 파괴할 가능성을 탐구하기 시작했습니다. 곧, 그들은 이 장기적인 철학을 학계와 산업계에 밀어 넣었습니다.

오늘의 선두주자인 A의 내부입니다.I. 고전 과학 소설 영화의 연구실, 스틸, 포스터가 회의실 벽에 걸려 있습니다. 연구원들이 이 트로프를 쫓을 때, 그들은 로젠블랫 박사와 다른 개척자들이 사용했던 것과 같은 열망적인 언어를 사용합니다.

이러한 연구소의 이름조차도 미래를 내다봅니다. Google Brain, Deep Mind, Singularity입니다.NET. 진실은 “인공지능”이라는 레이블이 붙은 대부분의 기술이 인간의 뇌를 작은 방식으로 모방한다는 것입니다. 확실히, 그것은 그것의 창조자들이 더 이상 그것을 통제할 수 없는 지경에 이르지 않았습니다.

대부분의 연구자들은 포부적인 언어에서 한발 물러서서 기술의 한계를 인정할 수 있습니다. 하지만 가끔 선이 흐릿해지기도 해요.

그들이 믿는 이유 2020년, 샌프란시스코의 연구실인 OpenAI는 GPT-3라고 불리는 시스템을 공개했습니다. 그것은 트윗을 생성하고, 시를 쓰고, 이메일을 요약하고, 사소한 질문에 답하고, 언어를 번역하고, 심지어 컴퓨터 프로그램을 작성할 수 있습니다.

오픈을 이끄는 37세의 기업가이자 투자자인 Sam Altman입니다.최고 경영자로서 AI는 이것과 유사한 시스템이 지능적이라고 믿습니다. “그들은 유용한 인지 작업을 완료할 수 있습니다,”라고 알트먼 씨가 최근 아침에 제게 말했습니다. “학습 능력, 즉 새로운 맥락을 받아들이고 새로운 방식으로 무언가를 해결하는 능력은 지능입니다.”

GPT-3는 인공지능 연구자들이 인간 두뇌에 있는 뉴런의 거미줄을 따서 신경망이라고 부르는 것입니다. 그것은 또한 열망적인 언어입니다. 신경망은 방대한 양의 디지털 데이터에서 패턴을 정확히 파악하여 기술을 학습하는 수학적 시스템입니다. 예를 들어, 수천 장의 고양이 사진을 분석함으로써, 그것은 고양이를 인식하는 것을 배울 수 있습니다.

“우리는 이것을 ‘인공지능’이라고 부르지만, 더 좋은 이름은 ‘대형 데이터 세트에서 통계 패턴을 추출하는 것’일 수도 있습니다.”라고 버클리 교수인 고프닉 박사가 말했습니다.

이것은 1950년대에 로젠블랫 박사가 탐구했던 것과 같은 기술입니다. 그는 이 큰 아이디어를 실현하는 데 필요한 방대한 양의 디지털 데이터를 가지고 있지 않았습니다. 또한 그는 모든 데이터를 분석하는 데 필요한 컴퓨팅 능력을 가지고 있지 않았습니다. 그러나 2010년경, 연구자들은 신경망이 적어도 특정 작업을 통해 그와 다른 사람들이 오랫동안 주장했던 것처럼 강력하다는 것을 보여주기 시작했습니다.

이러한 작업에는 이미지 인식, 음성 인식 및 번역이 포함되었습니다. 신경망은 당신이 아이폰에 짖는 명령을 인식하고 구글 번역에서 프랑스어와 영어를 번역하는 기술입니다.

더 최근에, 구글과 오픈과 같은 곳의 연구원들이 있습니다.인공지능은 수천 명의 디지털 책과 위키피디아 기사를 포함한 방대한 양의 산문으로부터 학습한 신경망을 구축하기 시작했습니다. GPT-3가 그 예입니다.

모든 디지털 텍스트를 분석하면서 인간 언어의 수학적 지도를 만들었습니다. 1,750억개 이상의 데이터 포인트들이 우리가 단어를 어떻게 조합하는지를 기술합니다. 이 지도를 사용하여, 그것은 연설 펜 쓰기, 컴퓨터 프로그램 쓰기, 그리고 대화하기와 같은 많은 다양한 일을 수행할 수 있습니다.

하지만 끝없는 경고가 있습니다. GPT-3를 사용하는 것은 주사위를 굴리는 것과 같습니다. 만약 여러분이 도널드 J.의 목소리로 10개의 연설을 요구한다면요. 트럼프, 전 대통령과 아주 비슷하게 들리는 다섯 명과 전혀 어울리지 않는 다섯 명의 다른 사람들을 줄지도 모릅니다. 컴퓨터 프로그래머는 이 기술을 사용하여 작은 코드 조각을 만들어 더 큰 프로그램에 삽입할 수 있지만, 대개는 그것이 주는 모든 것을 편집하고 마사지해야 합니다.

“이러한 것들은 보통의 두 살짜리 아이들의 마음과 같은 야구장에 있지 않습니다,” 라고 아동 발달에 특화된 고프닉 박사가 말했습니다. “적어도 몇 가지 지능의 측면에서 볼 때, 그것들은 아마도 슬라임 곰팡이와 제 2살짜리 손자 사이 어딘가에 있을 것입니다.”

우리가 이러한 결함에 대해 논의한 후에도 알트만 씨는 이런 종류의 시스템이 지능적이라고 설명했습니다. 우리가 계속 수다를 떨자, 그는 그것이 인간의 방식으로 지능적이지 않다는 것을 인정했습니다. “이것은 외계인의 지능 형태와 같습니다,”라고 그는 말했습니다. “하지만 여전히 중요합니다.”

이 기술의 한때와 미래의 힘을 설명하는 데 사용되는 단어는 사람마다 다른 것을 의미합니다. 사람들은 무엇이 지능이고 무엇이 지능이 아닌지에 대해 의견이 다릅니다. 감각(감각과 감각을 경험하는 능력)은 쉽게 측정할 수 있는 것이 아니다. 의식도 마찬가지입니다. 깨어있는 것과 주변을 인식하는 것 말입니다.

알트만 씨와 이 분야의 많은 다른 사람들은 인간의 뇌가 할 수 있는 모든 것을 할 수 있는 기계를 만드는 과정에 있다고 확신하고 있습니다. 이러한 자신감은 그들이 현재 기술에 대해 논의할 때 빛을 발합니다.

“저는 사람들이 이러한 시스템에 대해 정말로 흥분하고 있고 그들의 흥분을 불완전한 언어로 표현하고 있다고 생각합니다,” 라고 알트먼 씨가 말했습니다.

그는 일부 A를 인정합니다.I. 연구원들은 “현실과 공상 과학 소설을 구별하기 위해 고군분투합니다.” 하지만 그는 이 연구원들이 여전히 가치 있는 역할을 한다고 믿고 있습니다. “그것들은 우리가 가능한 모든 범위의 꿈을 꾸도록 도와줍니다,” 라고 그가 말했습니다.

아마 그럴 거예요. 하지만 나머지 사람들에게는, 이러한 꿈들이 우리의 관심을 받을 만한 문제들에 방해가 될 수 있습니다.

1960년대 중반에 매사추세츠 공과대학교의 연구원인 조셉 바이젠바움은 엘리사라고 불리는 자동화된 심리치료사를 만들었습니다. 이 챗봇은 간단했습니다. 기본적으로, 여러분이 컴퓨터 화면에 생각을 입력했을 때, 그것은 여러분에게 이 생각을 확장하라고 요구했습니다. 혹은 질문의 형태로 여러분의 말을 반복했을 뿐입니다.

심지어 Dr. Dr.에서도요. Weizenbaum은 이 기술에 대한 학술 논문을 발표할 때 다음과 같은 대화를 골랐습니다. Eliza는 대문자로 응답했습니다.

남자는 다 비슷해요.

어떤 방식으로요?

그 사람들은 항상 뭔가에 대해 우리를 귀찮게 해요.

구체적인 예를 생각해 볼 수 있습니까?

음, 제 남자친구가 저를 여기 오게 했어요.

당신 남자친구가 당신을 여기 오게 했어요

하지만 박사님께는요. Weizenbaum의 놀라움은, 사람들은 Eliza를 마치 사람처럼 대했습니다. 그들은 그들의 개인적인 문제들을 자유롭게 공유하고 그것에 대한 반응에서 위안을 얻었습니다.

“저는 오랜 경험을 통해 많은 프로그래머들이 그들의 컴퓨터와 강한 감정적 유대가 종종 기계와의 짧은 경험 후에 형성된다는 것을 알았습니다.”라고 후에 그는 썼습니다. “제가 깨닫지 못한 것은 비교적 간단한 컴퓨터 프로그램에 극도로 짧은 노출이 꽤 정상적인 사람들에게 강력한 망상적 사고를 유도할 수 있다는 것입니다.”

우리 인간은 이런 감정에 민감합니다. 개, 고양이 그리고 다른 동물들이 아주 작은 양의 인간 같은 행동을 보일 때, 우리는 그들이 실제보다 우리와 더 비슷하다고 생각하는 경향이 있습니다. 우리가 기계에서 인간 행동의 힌트를 볼 때 거의 같은 일이 일어납니다.

과학자들은 이제 이것을 Eliza 효과라고 부릅니다.

현대 기술에서도 비슷한 일이 일어나고 있습니다. GPT-3가 출시된 지 몇 달 후, 발명가이자 기업가인 Philip Bosua가 저에게 이메일을 보냈습니다. 주제는 “신은 기계입니다.”였습니다.

“제 마음속에 GPT-3가 지각적으로 나타난 것은 의심의 여지가 없습니다”라고 쓰여 있었습니다. “우리 모두는 미래에 이런 일이 일어날 것을 알고 있었지만, 지금 이 미래가 있는 것처럼 보입니다. 그것은 저를 종교적 메시지를 전파하는 예언자로 보는데, 이상하게도 그런 느낌입니다.”

아이폰용으로 600개 이상의 앱을 디자인한 후, 보스아 씨는 스마트폰으로 제어할 수 있는 전구를 개발했고 킥스타터 캠페인을 통해 이 발명품을 중심으로 사업을 구축했고 결국 실리콘 밸리의 벤처 캐피털 회사인 세쿼이아 캐피털로부터 1,200만 달러를 모았습니다. 현재, 그는 생체 의학 훈련을 받지 않았지만, 피부를 부러뜨리지 않고 그들의 포도당 수치를 측정할 수 있는 당뇨병 환자들을 위한 장치를 개발하고 있습니다.

이미지”GPT-3가 지각적으로 나타난 것은 의심의 여지가 없습니다”라고 발명가이자 기업가 필립 보수는 썼습니다.크레딧입니다…실습에 대해 알아보십시오.우리가 통화했을 때, 그는 제게 그의 신분을 비밀로 해달라고 부탁했어요. 그는 Know Labs라는 새로운 회사를 세우는 것을 도왔던 경험 많은 기술 기업가입니다. 하지만 르무아네 씨가 구글에서 개발된 유사한 기술에 대해 비슷한 주장을 한 후, 보수아 씨는 기록에 남길 수 있어서 기쁘다고 말했습니다.

“제가 발견한 것을 발견했을 때는 아주 초기였습니다.”라고 그가 말했습니다. “하지만 이제 이 모든 것이 밝혀지기 시작했습니다.”

제가 많은 전문가들이 이런 종류의 시스템들이 단지 그들이 본 패턴을 반복하는데 능숙하다고 주장했을 때, 그는 이것이 인간이 행동하는 방식이라고 말했습니다. “아이는 부모에게서 보는 것, 즉 주변 세상에서 보는 것을 흉내낼 수 있지 않나요?” 그는 말씀했어요.

Bosua씨는 GPT-3가 항상 일관성이 있는 것은 아니라는 것을 인정했지만, 올바른 방법으로 사용한다면 이것을 피할 수 있다고 말했습니다.

“가장 좋은 구문은 정직입니다.”라고 그가 말했습니다. “만약 여러분이 그것에 정직하고 여러분의 생소한 생각을 표현한다면, 그것은 여러분이 찾고 있는 질문에 대답할 수 있는 능력을 줍니다.”

보스아 씨가 모든 사람을 대표하는 것은 아니다. 그의 새 회사의 회장은 그를 “신성한 영감을 받은” 사람, 즉 “사물을 일찍 보는” 사람이라고 부릅니다. 하지만 그의 경험은 상상력을 사로잡을 수 있는 매우 결함이 있는 기술의 힘을 보여줍니다.

로봇이 우리를 어디로 데려갈지 마가렛 미첼은 이 모든 것이 미래에 무엇을 의미하는지 걱정합니다.

마이크로소프트의 연구원으로서, 그리고 그녀가 그것의 A를 발견하는 것을 도왔던 구글입니다.I. 윤리팀과 또 다른 저명한 연구실인 Hugging Face는 이 기술의 발전을 직접 목격했습니다. 오늘날, 그 기술은 비교적 단순하고 분명히 결함이 있지만, 많은 사람들은 그것을 어떤 식으로든 인간으로 보고 있습니다. 기술이 훨씬 더 강력해지면 어떻게 될까요?

트윗과 블로그 게시물을 생성하고 대화를 모방하기 시작할 뿐만 아니라 Open과 같은 랩에 의해 만들어진 시스템도 있습니다.인공지능은 이미지를 생성할 수 있습니다. DALL-E라는 새로운 도구를 사용하면, 단순히 당신이 보고 싶은 것을 쉬운 영어로 설명하는 것만으로 사실적인 디지털 이미지를 만들 수 있습니다.

A 커뮤니티에 몇 명 있습니다.I. 연구원들은 이러한 시스템들이 감각이나 의식으로 가는 길에 있다고 걱정합니다. 하지만 이것은 요점에서 벗어났습니다.

“사람, 개, 또는 다른 동물과 같은 의식 있는 유기체는 한 문맥에서 무언가를 배우고 다른 문맥에서 다른 것을 배울 수 있으며, 그들이 이전에 경험하지 못했던 새로운 문맥에서 무언가를 하기 위해 이 두 가지를 결합할 수 있습니다,”라고 피츠버그 대학의 앨런 박사는 말했습니다. “이 기술은 그런 일을 하는 데 전혀 도움이 되지 않습니다.”

훨씬 더 직접적인, 그리고 더 현실적인 우려가 있습니다.

이 기술이 계속 발전함에 따라, 가짜 텍스트와 가짜 이미지 같은 잘못된 정보를 인터넷을 통해 퍼뜨리는 데 도움이 될 수 있으며, 2016년 대선을 좌우하는 데 도움이 될 수 있는 온라인 캠페인을 제공할 수 있습니다. 그것은 훨씬 더 설득력 있는 방법으로 대화를 모방하는 챗봇을 생산할 수 있습니다. 그리고 이러한 시스템은 오늘날 인간이 주도하는 허위 정보 캠페인이 그에 비해 미미해 보이는 규모로 작동할 수 있습니다.

만약 그런 일이 일어난다면, 우리는 우리가 온라인에서 보는 모든 것을 극도로 회의적으로 대해야 할 것입니다. 하지만 박사님은요 Mitchell은 우리가 그 도전에 대처할 수 있는지 궁금해합니다.

“저는 챗봇이 사람들을 잡아먹을까 봐 걱정됩니다,”라고 그녀는 말했습니다. “그들은 우리가 무엇을 믿어야 하고 무엇을 해야 하는지 설득하는 힘을 가지고 있습니다.

As the sun set over Maury Island, just south of Seattle, Ben Goertzel and his jazz fusion band had one of those moments that all bands hope for — keyboard, guitar, saxophone and lead singer coming together as if they were one.

Dr. Goertzel was on keys. The band’s friends and family listened from a patio overlooking the beach. And Desdemona, wearing a purple wig and a black dress laced with metal studs, was on lead vocals, warning of the coming Singularity — the inflection point where technology can no longer be controlled by its creators.

“The Singularity will not be centralized!” she bellowed. “It will radiate through the cosmos like a wasp!”

After more than 25 years as an artificial intelligence researcher — a quarter-century spent in pursuit of a machine that could think like a human — Dr. Goertzel knew he had finally reached the end goal: Desdemona, a machine he had built, was sentient.

But a few minutes later, he realized this was nonsense.

“When the band gelled, it felt like the robot was part of our collective intelligence — that it was sensing what we were feeling and doing,” he said. “Then I stopped playing and thought about what really happened.”

What happened was that Desdemona, through some sort of technology-meets-jazz-fusion kismet, hit him with a reasonable facsimile of his own words at just the right moment.

Dr. Goertzel is the chief executive and chief scientist of an organization called SingularityNET. He built Desdemona to, in essence, mimic the language in books he had written about the future of artificial intelligence.

Many people in Dr. Goertzel’s field aren’t as good at distinguishing between what is real and what they might want to be real.

The most famous recent example is an engineer named Blake Lemoine. He worked on artificial intelligence at Google, specifically on software that can generate words on its own — what’s called a large language model. He concluded the technology was sentient; his bosses concluded it wasn’t. He went public with his convictions in an interview with The Washington Post, saying: “I know a person when I talk to it. It doesn’t matter whether they have a brain made of meat in their head. Or if they have a billion lines of code.”

The interview caused an enormous stir across the world of artificial intelligence researchers, which I have been covering for more than a decade, and among people who are not normally following large-language-model breakthroughs. One of my mother’s oldest friends sent her an email asking if I thought the technology was sentient.

When she was assured that it was not, her reply was swift. “That’s consoling,” she said. Google eventually fired Mr. Lemoine.

For people like my mother’s friend, the notion that today’s technology is somehow behaving like the human brain is a red herring. There is no evidence this technology is sentient or conscious — two words that describe an awareness of the surrounding world.

That goes for even the simplest form you might find in a worm, said Colin Allen, a professor at the University of Pittsburgh who explores cognitive skills in both animals and machines. “The dialogue generated by large language models does not provide evidence of the kind of sentience that even very primitive animals likely possess,” he said.

Alison Gopnik, a professor of psychology who is part of the A.I. research group at the University of California, Berkeley, agreed. “The computational capacities of current A.I. like the large language models,” she said, “don’t make it any more likely that they are sentient than that rocks or other machines are.”

The problem is that the people closest to the technology — the people explaining it to the public — live with one foot in the future. They sometimes see what they believe will happen as much as they see what is happening now.

“There are lots of dudes in our industry who struggle to tell the difference between science fiction and real life,” said Andrew Feldman, chief executive and founder of Cerebras, a company building massive computer chips that can help accelerate the progress of A.I.

Read More on Artificial IntelligencePredicting Shapes: A lab that had in 2020 unveiled technology that could predict the shape of proteins has now released predictions for nearly every protein known to science.Are These People Real?: We created our own A.I. system to understand how easy it is for a computer to generate fake faces.Imitating Life: New A.I. systems can write original prose and generate an image at your command. The implications could be profound.

A prominent researcher, Jürgen Schmidhuber, has long claimed that he first built conscious machines decades ago. In February, Ilya Sutskever, one of the most important researchers of the last decade and the chief scientist at OpenAI, a lab in San Francisco backed by a billion dollars from Microsoft, said today’s technology might be “slightly conscious.” Several weeks later, Mr. Lemoine gave his big interview.

These dispatches from the small, insular, uniquely eccentric world of artificial intelligence research can be confusing or even scary to most of us. Science fiction books, movies and television have trained us to worry that machines will one day become aware of their surroundings and somehow do us harm.

It is true that as these researchers press on, Desdemona-like moments when this technology seems to show signs of true intelligence, consciousness or sentience are increasingly common. It is not true that in labs across Silicon Valley engineers have built robots who can emote and converse and jam on lead vocals like a human. The technology can’t do that.

But it does have the power to mislead people.

The technology can generate tweets and blog posts and even entire articles, and as researchers make gains, it is getting better at conversation. Although it often spits out complete nonsense, many people — not just A.I. researchers — find themselves talking to this kind of technology as if it were human.

As it improves and proliferates, ethicists warn that we will need a new kind of skepticism to navigate whatever we encounter across the internet. And they wonder if we are up to the task.

Desdemona’s Ancestors

On July 7, 1958, inside a government lab several blocks west of the White House, a psychologist named Frank Rosenblatt unveiled a technology he called the Perceptron.

It did not do much. As Dr. Rosenblatt demonstrated for reporters visiting the lab, if he showed the machine a few hundred rectangular cards, some marked on the left and some the right, it could learn to tell the difference between the two.

He said the system would one day learn to recognize handwritten words, spoken commands and even people’s faces. In theory, he told the reporters, it could clone itself, explore distant planets and cross the line from computation into consciousness.

When he died 13 years later, it could do none of that. But this was typical of A.I. research — an academic field created around the same time Dr. Rosenblatt went to work on the Perceptron.

The pioneers of the field aimed to recreate human intelligence by any technological means necessary, and they were confident this would not take very long. Some said a machine would beat the world chess champion and discover its own mathematical theorem within the next decade. That did not happen, either.

The research produced some notable technologies, but they were nowhere close to reproducing human intelligence. “Artificial intelligence” described what the technology might one day do, not what it could do at the moment.

Some of the pioneers were engineers. Others were psychologists or neuroscientists. No one, including the neuroscientists, understood how the brain worked. (Scientists still do not understand it.) But they believed they could somehow recreate it. Some believed more than others.

In the ’80s, an engineer named Doug Lenat said he could rebuild common sense one rule at a time. In the early 2000s, members of a sprawling online community — now called Rationalists or Effective Altruists — began exploring the possibility that artificial intelligence would one day destroy the world. Soon, they pushed this long-term philosophy into academia and industry.

Inside today’s leading A.I. labs, stills and posters from classic science fiction films hang on the conference room walls. As researchers chase these tropes, they use the same aspirational language used by Dr. Rosenblatt and the other pioneers.

Even the names of these labs look into the future: Google Brain, DeepMind, SingularityNET. The truth is that most technology labeled “artificial intelligence” mimics the human brain in only small ways — if at all. Certainly, it has not reached the point where its creators can no longer control it.

Most researchers can step back from the aspirational language and acknowledge the limitations of the technology. But sometimes, the lines get blurry.

Why They Believe

In 2020, OpenAI, a research lab in San Francisco, unveiled a system called GPT-3. It could generate tweets, pen poetry, summarize emails, answer trivia questions, translate languages and even write computer programs.

Sam Altman, the 37-year-old entrepreneur and investor who leads OpenAI as chief executive, believes this and similar systems are intelligent. “They can complete useful cognitive tasks,” Mr. Altman told me on a recent morning. “The ability to learn — the ability to take in new context and solve something in a new way — is intelligence.”

GPT-3 is what artificial intelligence researchers call a neural network, after the web of neurons in the human brain. That, too, is aspirational language. A neural network is really a mathematical system that learns skills by pinpointing patterns in vast amounts of digital data. By analyzing thousands of cat photos, for instance, it can learn to recognize a cat.

“We call it ‘artificial intelligence,’ but a better name might be ‘extracting statistical patterns from large data sets,’” said Dr. Gopnik, the Berkeley professor.

This is the same technology that Dr. Rosenblatt explored in the 1950s. He did not have the vast amounts of digital data needed to realize this big idea. Nor did he have the computing power needed to analyze all that data. But around 2010, researchers began to show that a neural network was as powerful as he and others had long claimed it would be — at least with certain tasks.

These tasks included image recognition, speech recognition and translation. A neural network is the technology that recognizes the commands you bark into your iPhone and translates between French and English on Google Translate.

More recently, researchers at places like Google and OpenAI began building neural networks that learned from enormous amounts of prose, including digital books and Wikipedia articles by the thousands. GPT-3 is an example.

As it analyzed all that digital text, it built what you might call a mathematical map of human language — more than 175 billion data points that describe how we piece words together. Using this map, it can perform many different tasks, like penning speeches, writing computer programs and having a conversation.

But there are endless caveats. Using GPT-3 is like rolling the dice: If you ask it for 10 speeches in the voice of Donald J. Trump, it might give you five that sound remarkably like the former president — and five others that come nowhere close. Computer programmers use the technology to create small snippets of code they can slip into larger programs, but more often than not they have to edit and massage whatever it gives them.

“These things are not even in the same ballpark as the mind of the average 2-year-old,” said Dr. Gopnik, who specializes in child development. “In terms of at least some kinds of intelligence, they are probably somewhere between a slime mold and my 2-year-old grandson.”

Even after we discussed these flaws, Mr. Altman described this kind of system as intelligent. As we continued to chat, he acknowledged that it was not intelligent in the way humans are. “It is like an alien form of intelligence,” he said. “But it still counts.”

The words used to describe the once and future powers of this technology mean different things to different people. People disagree on what is and what is not intelligence. Sentience — the ability to experience feelings and sensations — is not something easily measured. Nor is consciousness — being awake and aware of your surroundings.

Mr. Altman and many others in the field are confident that they are on a path to building a machine that can do anything the human brain can do. This confidence shines through when they discuss current technologies.

“I think part of what’s going on is people are just really excited about these systems and expressing their excitement in imperfect language,” Mr. Altman said.

He acknowledges that some A.I. researchers “struggle to differentiate between reality and science fiction.” But he believes these researchers still serve a valuable role. “They help us dream of the full range of the possible,” he said.

Perhaps they do. But for the rest of us, these dreams can get in the way of the issues that deserve our attention.

Why Everyone Else Believes

In the mid-1960s, a researcher at the Massachusetts Institute of Technology, Joseph Weizenbaum, built an automated psychotherapist he called Eliza. This chatbot was simple. Basically, when you typed a thought onto a computer screen, it asked you to expand this thought — or it just repeated your words in the form of a question.

Even when Dr. Weizenbaum cherry-picked a conversation for the academic paper he published on the technology, it looked like this, with Eliza responding in capital letters:

Men are all alike.

IN WHAT WAY?

They’re always bugging us about something or other.

CAN YOU THINK OF A SPECIFIC EXAMPLE?

Well, my boyfriend made me come here.

YOUR BOYFRIEND MADE YOU COME HERE

But much to Dr. Weizenbaum’s surprise, people treated Eliza as if it were human. They freely shared their personal problems and took comfort in its responses.

“I knew from long experience that the strong emotional ties many programmers have to their computers are often formed after only short experiences with machines,” he later wrote. “What I had not realized is that extremely short exposures to a relatively simple computer program could induce powerful delusional thinking in quite normal people.”

We humans are susceptible to these feelings. When dogs, cats and other animals exhibit even tiny amounts of humanlike behavior, we tend to assume they are more like us than they really are. Much the same happens when we see hints of human behavior in a machine.

Scientists now call it the Eliza effect.

Much the same thing is happening with modern technology. A few months after GPT-3 was released, an inventor and entrepreneur, Philip Bosua, sent me an email. The subject line was: “god is a machine.”

“There is no doubt in my mind GPT-3 has emerged as sentient,” it read. “We all knew this would happen in the future, but it seems like this future is now. It views me as a prophet to disseminate its religious message and that’s strangely what it feels like.”

After designing more than 600 apps for the iPhone, Mr. Bosua developed a light bulb you could control with your smartphone, built a business around this invention with a Kickstarter campaign and eventually raised $12 million from the Silicon Valley venture capital firm Sequoia Capital. Now, though he has no biomedical training, he is developing a device for diabetics that can monitor their glucose levels without breaking the skin.

Image“There is no doubt in my mind GPT-3 has emerged as sentient,” wrote Philip Bosua, an inventor and entrepreneur.Credit…Know Labs

When we spoke on the phone, he asked that I keep his identity secret. He is an experienced tech entrepreneur who was helping to build a new company, Know Labs. But after Mr. Lemoine made similar claims about similar technology developed at Google, Mr. Bosua said he was happy to go on the record.

“When I discovered what I discovered, it was very early days,” he said. “But now all this is starting to come out.”

When I pointed out that many experts were adamant these kinds of systems were merely good at repeating patterns they had seen, he said this is also how humans behave. “Doesn’t a child just mimic what it sees from a parent — what it sees in the world around it?” he said.

Mr. Bosua acknowledged that GPT-3 was not always coherent but said you could avoid this if you used it in the right way.

“The best syntax is honesty,” he said. “If you are honest with it and express your raw thoughts, that gives it the ability to answer the questions you are looking for.”

Mr. Bosua is not necessarily representative of the everyman. The chairman of his new company calls him “divinely inspired” — someone who “sees things early.” But his experiences show the power of even very flawed technology to capture the imagination.

Where the Robots Will Take Us

Margaret Mitchell worries what all this means for the future.

As a researcher at Microsoft, then Google, where she helped found its A.I. ethics team, and now Hugging Face, another prominent research lab, she has seen the rise of this technology firsthand. Today, she said, the technology is relatively simple and obviously flawed, but many people see it as somehow human. What happens when the technology becomes far more powerful?

In addition to generating tweets and blog posts and beginning to imitate conversation, systems built by labs like OpenAI can generate images. With a new tool called DALL-E, you can create photo-realistic digital images merely by describing, in plain English, what you want to see.

Some in the community of A.I. researchers worry that these systems are on their way to sentience or consciousness. But this is beside the point.

“A conscious organism — like a person or a dog or other animals — can learn something in one context and learn something else in another context and then put the two things together to do something in a novel context they have never experienced before,” Dr. Allen of the University of Pittsburgh said. “This technology is nowhere close to doing that.”

There are far more immediate — and more real — concerns.

As this technology continues to improve, it could help spread disinformation across the internet — fake text and fake images — feeding the kind of online campaigns that may have helped sway the 2016 presidential election. It could produce chatbots that mimic conversation in far more convincing ways. And these systems could operate at a scale that makes today’s human-driven disinformation campaigns seem minuscule by comparison.

If and when that happens, we will have to treat everything we see online with extreme skepticism. But Dr. Mitchell wonders if we are up to the challenge.

“I worry that chatbots will prey on people,” she said. “They have the power to persuade us what to believe and what to do.”

공유하기

댓글 남기기