[NYT]Elon Musk Ramps Up A.I. Efforts, Even as He Warns of Dangers
그는 인기 있는 챗봇 ChatGPT 뒤의 스타트업인 OpenAI와 440억 달러에 10월에 구입한 트위터 사이의 관계에 대해 배웠습니다. OpenAI는 ChatGPT 구축을 돕기 위해 모든 트윗의 피드인 트위터 데이터를 연간 약 2백만 달러에 라이센스를 부여하고 있었다고 이 문제에 대해 잘 알고 있는 두 사람이 말했습니다. Musk씨는 A를 믿었습니다.I. 그들은 스타트업이 트위터에 충분한 돈을 지불하지 않았다고 말했습니다.
그래서 머스크는 트위터의 데이터에서 OpenAI를 차단했다고 그들은 말했습니다.
그 이후로, 머스크는 자신의 A를 늘렸습니다.I. 기술의 위험성에 대해 공개적으로 논쟁하는 동안의 활동. 그는 새로운 A를 만들기 위해 토론토 대학의 연구원이자 교수인 Jimmy Ba와 이야기를 나누고 있습니다.I. X라는 회사.AI, 그 문제를 알고 있는 세 사람이 말했습니다. 그는 탑 A를 고용했습니다.I. 트위터의 구글 딥마인드 연구원들. 그리고 그는 정치적으로 비난 받는 물질을 제한 없이 생산하는 ChatGPT의 경쟁자를 만드는 것에 대해 공개적으로 말했습니다.
이러한 행동들은 머스크가 AI와 함께 해온 길고 복잡한 역사의 일부이며, 이 기술이 궁극적으로 인류에게 이익이 될지 아니면 파괴될지에 대한 그의 모순된 견해에 의해 지배됩니다. 심지어 그가 최근에 그의 A를 시작했을 때도.I. 프로젝트들, 그는 또한 지난 달 “사회에 대한 심각한 위험” 때문에 기술 개발을 6개월간 중단할 것을 요구하는 공개 서한에 서명했습니다
그리고 비록 머스크가 OpenAI에 맞서 반격하고 있고 그것과 경쟁할 계획이지만, 그는 A를 찾는 것을 도왔습니다.I. 2015년 비영리 단체로 I. lab. 그는 OpenAI가 더 이상 비영리 단체로 운영되지 않고 정치적, 사회적 논쟁에서 편을 드는 기술을 구축하고 있기 때문에 그 이후로 그는 그것에 환멸을 느꼈다고 말했습니다.
Musk씨의 인공지능 접근법은 결국 그 자신이 그것을 하는 것으로 요약됩니다. 전기 자동차 제조업체 테슬라와 로켓 회사 스페이스X를 운영하는 51세의 억만장자는 오랫동안 자신의 A를 보아왔습니다.이러한 문제들을 그와 논의한 사람들에 따르면, 저는 그의 경쟁자들보다 더 좋고 안전한 대안을 제공하기 위해 노력하고 있습니다.
“그는 A를 믿습니다.I.는 주요 전환점이 될 것이고 만약 그것이 제대로 관리되지 않는다면, 그것은 재앙이 될 것입니다,” 라고 공개서한의 배후에 있는 미래 생명 연구소의 설립자이자 캘리포니아 대학의 이론 우주론자인 Anthony Aguirre가 말했습니다. “다른 많은 사람들처럼, 그는 다음과 같이 궁금해합니다: 우리는 그것에 대해 어떻게 해야 합니까?”
머스크 씨와 A를 훈련시키는 데 사용되는 인기 있는 알고리즘을 만든 것으로 유명한 바 씨.I. 시스템이 의견 요청에 응답하지 않았습니다. 그 문제에 정통한 세 사람은 그들의 논의가 계속되고 있다고 말했습니다.
OpenAI의 대변인인 한나 웡은 비록 그것이 투자자들을 위해 이익을 창출했지만, 그것은 여전히 비영리 단체에 의해 관리되고 있고 그것의 이익은 제한되어 있다고 말했습니다.
Musk씨는 A에 뿌리를 두고 있습니다.I. 2011년까지. 그 당시, 그는 2010년에 인공 일반 지능을 구축하기 위해 시작한 런던의 스타트업인 딥마인드의 초기 투자자였습니다. 또는 인간의 뇌가 할 수 있는 모든 것을 할 수 있는 기계인 AI. 4년이 채 지나지 않아 구글은 50인 회사를 6억 5천만 달러에 인수했습니다.
Musk 씨는 매사추세츠 공과대학에서 열린 2014년 항공우주 행사에서 A를 만드는 것을 망설이고 있다고 말했습니다.나 자신.
“인공지능에 대해 매우 조심할 필요가 있다고 생각합니다,” 라고 청중들의 질문에 대답하면서 그가 말했습니다. “인공지능으로 악마를 소환합니다.”
그해 겨울, 인류에 대한 실존적 위험을 탐구하는 생명의 미래 연구소는 푸에르토리코에서 A의 미래에 초점을 맞춘 개인 회의를 조직했습니다.I. Musk 씨는 그곳에서 연설을 했고, A라고 주장했습니다.I.는 아무도 모르게 위험한 지역으로 건너갈 수 있었고 연구소에 자금을 지원하겠다고 발표했습니다. 그는 천만 달러를 주었습니다.
2015년 여름, 머스크는 여러 A와 사적으로 만났습니다.I. 실리콘 밸리 거래로 유명한 캘리포니아 멘로 파크의 한 호텔인 로즈우드에서 열린 저녁 식사 중 연구원들과 기업가들. 그 해 말까지, 그와 저녁 식사에 참석한 몇몇 다른 사람들 – 당시 창업 인큐베이터 Y Combinator의 사장이었던 Sam Altman과 최고 A인 Ilya Sutskever를 포함합니다.I. 연구원은 OpenAI를 설립했습니다.
머스크와 다른 사람들이 10억 달러의 기부를 약속하면서 OpenAI는 비영리 단체로 설립되었습니다. 연구소는 모든 연구를 “오픈 소스”하기로 약속했습니다. 즉, 기본 소프트웨어 코드를 전 세계와 공유하겠다는 의미입니다. 머스크 씨와 알트먼 씨는 유해한 A의 위협을 주장했습니다.I. 구글과 페이스북과 같은 거대 기술 기업들이 아닌 모든 사람들이 이 기술에 접근할 수 있다면 완화될 것입니다.
하지만 OpenAI가 ChatGPT을 초래할 기술을 개발하기 시작하면서, 연구소의 많은 사람들은 소프트웨어를 공개적으로 공유하는 것이 위험할 수 있다는 것을 깨달았습니다. 인공지능을 사용하면 개인과 조직은 잠재적으로 다른 방법보다 더 빠르고 효율적으로 잘못된 정보를 생성하고 배포할 수 있습니다. 많은 OpenAI 직원들은 연구소가 아이디어와 코드의 일부를 대중에게 공개하지 말아야 한다고 말했습니다.
2018년 머스크가 OpenAI 이사회에서 사임한 것은 부분적으로 조직과의 이해충돌이 커지고 있기 때문이라고 이 문제에 정통한 두 사람이 말했습니다. 그때까지, 그는 자신의 A를 짓고 있었습니다.I. Tesla의 프로젝트 — 고속도로에서 자동차를 자동으로 조향, 가속 및 제동하는 운전자 보조 기술인 오토파일럿. 그렇게 하기 위해, 그는 OpenAI의 핵심 직원을 밀렵했습니다.
최근 인터뷰에서 알트먼 씨는 머스크에 대한 구체적인 논의는 거부했지만, 머스크가 OpenAI와 결별한 것은 수년간 회사에서 많은 분열 중 하나였다고 말했습니다.
“불일치, 불신, 자아가 있습니다.”라고 Altman 씨는 말했습니다. “사람들이 같은 방향으로 가리킬수록, 의견 차이는 더 논쟁적입니다. 여러분은 이것을 곤충과 종교적인 질서에서 볼 수 있습니다. 가장 가까운 사람들 사이에는 쓰라린 싸움이 있습니다.”
ChatGPT가 11월에 데뷔한 후, 머스크는 OpenAI에 대해 점점 더 비판적이 되었습니다. “우리는 이것이 지옥에서 이익을 극대화하는 악마 같은 것이 되기를 원하지 않습니다,”라고 그는 지난 주 폭스 뉴스의 전 진행자인 터커 칼슨과의 인터뷰에서 말했습니다.
머스크 씨는 A에 대한 불만을 다시 제기했습니다.I.는 위험했고 그것을 만들기 위한 그의 노력을 가속화했습니다. 지난달 테슬라 투자자 행사에서 그는 자신의 자동차 회사가 A를 사용했음에도 불구하고 AI로부터 사회를 보호하기 위해 규제 당국을 요청했습니다.I. 치명적인 충돌 사고와 관련된 자율 주행 기술의 경계를 넓히는 시스템.
같은 날, 머스크는 트윗에서 트위터가 ChatGPT의 노선을 따라 기술을 훈련하기 위해 자체 데이터를 사용할 것이라고 제안했습니다. 트위터는 딥마인드의 연구원 2명을 고용했다고, 고용에 익숙한 2명이 말했습니다. 정보와 내부자는 앞서 채용과 트위터의 A에 대한 세부 사항을 보도했습니다.I. 노력.
지난 주 칼슨 씨와의 인터뷰에서 머스크는 OpenAI가 더 이상 거대 기술 기업의 힘을 견제하는 역할을 하지 않는다고 말했습니다. 그는 “최대의 진실을 추구하는 A”라고 말했습니다.우주의 본질을 이해하려는 I.”
지난 달, 머스크 씨는 X를 등록했습니다.AI. 등록 문서에 따르면 이 스타트업은 네바다주에 설립되었으며, 머스크와 그의 재무 매니저 재러드 버챌도 회사 임원으로 기재되어 있습니다. 그 문서들은 월스트리트 저널에 의해 이전에 보도되었습니다.
A에 대해 논의한 전문가들.I. Musk 씨는 그가 기술을 직접 만들 때에도 기술의 위험성에 대해 진심으로 걱정하고 있다고 믿고 있습니다. 다른 사람들은 그의 입장이 다른 동기들, 특히 그의 회사들로부터 홍보하고 이익을 얻으려는 그의 노력에 의해 영향을 받았다고 말했습니다.
“그는 로봇들이 우리를 죽일 것이라고 말합니까?”라고 A에 다녔던 워싱턴 법학대학원의 라이언 칼로 교수가 말했습니다.I. 머스크 씨와 함께 하는 행사들. “그의 회사가 만든 자동차가 이미 누군가를 죽였습니다.”
In December, Elon Musk became angry about the development of artificial intelligence and put his foot down.
He had learned of a relationship between OpenAI, the start-up behind the popular chatbot ChatGPT, and Twitter, which he had bought in October for $44 billion. OpenAI was licensing Twitter’s data — a feed of every tweet — for about $2 million a year to help build ChatGPT, two people with knowledge of the matter said. Mr. Musk believed the A.I. start-up wasn’t paying Twitter enough, they said.
So Mr. Musk cut OpenAI off from Twitter’s data, they said.
Since then, Mr. Musk has ramped up his own A.I. activities, while arguing publicly about the technology’s hazards. He is in talks with Jimmy Ba, a researcher and professor at the University of Toronto, to build a new A.I. company called X.AI, three people with knowledge of the matter said. He has hired top A.I. researchers from Google’s DeepMind at Twitter. And he has spoken publicly about creating a rival to ChatGPT that generates politically charged material without restrictions.
The actions are part of Mr. Musk’s long and complicated history with A.I., governed by his contradictory views on whether the technology will ultimately benefit or destroy humanity. Even as he recently jump-started his A.I. projects, he also signed an open letter last month calling for a six-month pause on the technology’s development because of its “profound risks to society.”
And although Mr. Musk is pushing back against OpenAI and plans to compete with it, he helped found the A.I. lab in 2015 as a nonprofit. He has since said he has grown disillusioned with OpenAI because it no longer operates as a nonprofit and is building technology that, in his view, takes sides in political and social debates.
What Mr. Musk’s A.I. approach boils down to is doing it himself. The 51-year-old billionaire, who also runs the electric carmaker Tesla and the rocket company SpaceX, has long seen his own A.I efforts as offering better, safer alternatives than those of his competitors, according to people who have discussed these matters with him.
“He believes that A.I. is going to be a major turning point and that if it is poorly managed, it is going to be disastrous,” said Anthony Aguirre, a theoretical cosmologist at the University of California, Santa Cruz, and a founder of the Future of Life Institute, the organization behind the open letter. “Like many others, he wonders: What are we going to do about that?”
Mr. Musk and Mr. Ba, who is known for creating a popular algorithm used to train A.I. systems, did not respond to requests for comment. Their discussions are continuing, the three people familiar with the matter said.
A spokeswoman for OpenAI, Hannah Wong, said that although it now generated profits for investors, it was still governed by a nonprofit and its profits were capped.
Mr. Musk’s roots in A.I. date to 2011. At the time, he was an early investor in DeepMind, a London start-up that set out in 2010 to build artificial general intelligence, or A.G.I., a machine that can do anything the human brain can. Less than four years later, Google acquired the 50-person company for $650 million.
At a 2014 aerospace event at the Massachusetts Institute of Technology, Mr. Musk indicated that he was hesitant to build A.I himself.
“I think we need to be very careful about artificial intelligence,” he said while answering audience questions. “With artificial intelligence, we are summoning the demon.”
That winter, the Future of Life Institute, which explores existential risks to humanity, organized a private conference in Puerto Rico focused on the future of A.I. Mr. Musk gave a speech there, arguing that A.I. could cross into dangerous territory without anyone realizing it and announced that he would help fund the institute. He gave $10 million.
In the summer of 2015, Mr. Musk met privately with several A.I. researchers and entrepreneurs during a dinner at the Rosewood, a hotel in Menlo Park, Calif., famous for Silicon Valley deal-making. By the end of that year, he and several others who attended the dinner — including Sam Altman, then president of the start-up incubator Y Combinator, and Ilya Sutskever, a top A.I. researcher — had founded OpenAI.
OpenAI was set up as a nonprofit, with Mr. Musk and others pledging $1 billion in donations. The lab vowed to “open source” all its research, meaning it would share its underlying software code with the world. Mr. Musk and Mr. Altman argued that the threat of harmful A.I. would be mitigated if everyone, rather than just tech giants like Google and Facebook, had access to the technology.
But as OpenAI began building the technology that would result in ChatGPT, many at the lab realized that openly sharing its software could be dangerous. Using A.I., individuals and organizations can potentially generate and distribute false information more quickly and efficiently than they otherwise could. Many OpenAI employees said the lab should keep some of its ideas and code from the public.
In 2018, Mr. Musk resigned from OpenAI’s board, partly because of his growing conflict of interest with the organization, two people familiar with the matter said. By then, he was building his own A.I. project at Tesla — Autopilot, the driver-assistance technology that automatically steers, accelerates and brakes cars on highways. To do so, he poached a key employee from OpenAI.
In a recent interview, Mr. Altman declined to discuss Mr. Musk specifically, but said Mr. Musk’s breakup with OpenAI was one of many splits at the company over the years.
“There is disagreement, mistrust, egos,” Mr. Altman said. “The closer people are to being pointed in the same direction, the more contentious the disagreements are. You see this in sects and religious orders. There are bitter fights between the closest people.”
After ChatGPT debuted in November, Mr. Musk grew increasingly critical of OpenAI. “We don’t want this to be sort of a profit-maximizing demon from hell, you know,” he said during an interview last week with Tucker Carlson, the former Fox News host.
Mr. Musk renewed his complaints that A.I. was dangerous and accelerated his own efforts to build it. At a Tesla investor event last month, he called for regulators to protect society from A.I., even though his car company has used A.I. systems to push the boundaries of self-driving technologies that have been involved in fatal crashes.
That same day, Mr. Musk suggested in a tweet that Twitter would use its own data to train technology along the lines of ChatGPT. Twitter has hired two researchers from DeepMind, two people familiar with the hiring said. The Information and Insider earlier reported details of the hires and Twitter’s A.I. efforts.
During the interview last week with Mr. Carlson, Mr. Musk said OpenAI was no longer serving as a check on the power of tech giants. He wanted to build TruthGPT, he said, “a maximum-truth-seeking A.I. that tries to understand the nature of the universe.”
Last month, Mr. Musk registered X.AI. The start-up is incorporated in Nevada, according to the registration documents, which also list the company’s officers as Mr. Musk and his financial manager, Jared Birchall. The documents were earlier reported by The Wall Street Journal.
Experts who have discussed A.I. with Mr. Musk believe he is sincere in his worries about the technology’s dangers, even as he builds it himself. Others said his stance was influenced by other motivations, most notably his efforts to promote and profit from his companies.
“He says the robots are going to kill us?” said Ryan Calo, a professor at the University of Washington School of Law, who has attended A.I. events alongside Mr. Musk. “A car that his company made has already killed somebody.”
