메타는 인공지능 기술을 오픈 소스로 만들었다. 경쟁자들은 그것이 위험한 결정이라고 말한다.

메타는 인공지능 기술을 오픈 소스로 만들었다. 경쟁자들은 그것이 위험한 결정이라고 말한다.

[NYT]Meta Made Its AI Tech Open-Source. Rivals Say It’s a Risky Decision.

2월에 Meta는 빠르게 진화하는 인공지능의 세계에서 특이한 움직임을 보였습니다: 그것은 그것의 A를 주기로 결정했습니다.I. 왕관의 보석.

페이스북, 인스타그램, 왓츠앱을 소유하고 있는 실리콘 밸리의 거대 기업은 A를 만들었습니다.온라인 챗봇에 전원을 공급할 수 있는 LLaMA라고 불리는 I. 기술. 하지만 메타는 기술을 그대로 유지하는 대신 시스템의 기본 컴퓨터 코드를 야생에 공개했습니다. Meta에 이메일 주소를 제공한 학자, 정부 연구원 및 기타 사람들은 회사가 개인을 조사한 후 코드를 다운로드할 수 있었습니다.

본질적으로, 메타는 그것의 A를 주고 있었습니다.I. 자유롭게 복사, 수정 및 재사용할 수 있는 컴퓨터 코드인 오픈 소스 소프트웨어로서의 기술은 외부 사용자에게 자신만의 챗봇을 신속하게 구축하는 데 필요한 모든 것을 제공합니다.

“승리할 플랫폼은 오픈 플랫폼이 될 것입니다.”라고 메타의 수석 A Yann LeCun은 말합니다.I. 과학자는 인터뷰에서 말했습니다.

A를 이끄는 경주로.I. Silicon Valley 전반에 걸쳐 가열되고 있는 Meta는 이 기술에 대해 다른 접근 방식을 취함으로써 경쟁업체들로부터 두각을 나타내고 있습니다. 설립자이자 최고 경영자인 Mark Zuckerberg에 의해 추진되는 Meta는 가장 현명하게 해야 할 일은 기본적인 A를 공유하는 것이라고 믿습니다.I. 영향력을 확산시키고 궁극적으로 미래를 향해 더 빠르게 나아가는 방법으로서의 엔진.

그것의 행동은 새로운 A를 이끄는 두 회사인 구글과 OpenAI의 행동과 대조됩니다.I. 군비 경쟁. A가 걱정됩니다.I. 챗봇과 같은 도구는 허위 정보, 혐오 발언 및 기타 독성 콘텐츠를 퍼뜨리는 데 사용될 것이며, 이러한 회사들은 A를 뒷받침하는 방법과 소프트웨어에 대해 점점 더 비밀스러워지고 있습니다.I. 제품.

구글, OpenAI 등은 자유로운 오픈소스 접근이 위험하다며 메타에 비판적이었습니다. 최근 몇 달 동안 AI의 급속한 성장은 기술이 적절하게 배치되지 않을 경우 어떻게 고용 시장을 망칠 수 있는지를 포함하여 기술의 위험에 대한 경종을 울렸습니다. 그리고 LLaMA가 출시된 지 며칠 만에 시스템이 거짓과 오해의 소지가 있는 정보를 퍼뜨리는 것으로 유명한 온라인 게시판인 4chan에 유출되었습니다.

A의 “우리는 세부 사항이나 오픈 소스 코드를 제공하는 것에 대해 더 신중하게 생각하고 싶습니다.”I. 기술은 A를 감독하는 데 도움을 주는 구글 연구 부사장 주빈 가흐라마니가 말했습니다.I. 일을 합니다. “그것이 어디서 오용으로 이어질 수 있습니까?”

하지만 메타는 코드를 혼자 간직할 이유가 없다고 말했습니다. LeCun 박사는 구글과 OpenAI에서 증가하는 비밀 유지는 “심각한 실수”이며 “일이 일어나고 있는 것에 대한 정말 나쁜 견해”라고 말했습니다 그는 소비자와 정부가 A를 수용하는 것을 거부할 것이라고 주장합니다.I. 구글이나 메타 같은 회사의 통제 밖에 있지 않는 한.

“모든 A를 원하십니까.I. 두 개의 강력한 미국 기업이 관리하는 시스템?” 그가 물었습니다.

OpenAI는 언급을 거부했습니다.

A에 대한 메타의 오픈 소스 접근법.I.는 소설이 아닙니다. 기술의 역사는 오픈 소스 시스템과 독점 시스템 또는 폐쇄 시스템 간의 싸움으로 가득합니다. 일부는 미래의 컴퓨팅 플랫폼을 구축하는 데 사용되는 가장 중요한 툴을 비축하고 있는 반면, 다른 일부는 이러한 툴을 제공합니다. 가장 최근에, 구글은 안드로이드 모바일 운영 체제를 오픈 소스로 하여 스마트폰에서 애플의 우위를 차지했습니다.

많은 회사들이 공개적으로 그들의 A를 공유했습니다.I. 연구자들의 주장에 따라 과거의 기술들. 하지만 그들의 전술은 인공지능을 둘러싼 경쟁 때문에 바뀌고 있습니다. 이러한 변화는 지난해 OpenAI가 ChatGPT를 출시하면서 시작되었습니다. 챗봇의 엄청난 성공은 소비자들을 열광시켰고 A에서 경쟁에 박차를 가했습니다.I. 필드, 구글이 더 많은 A를 통합하기 위해 빠르게 움직이고 있습니다.제품에 대한 I. 그리고 마이크로소프트사는 OpenAI에 130억 달러를 투자했습니다.

구글, 마이크로소프트, 그리고 OpenAI가 그 이후로 인공지능에 대한 대부분의 관심을 받은 반면, 메타는 또한 거의 10년 동안 이 기술에 투자했습니다. 이 회사는 텍스트, 이미지 및 기타 미디어를 자체적으로 생성하는 챗봇 및 기타 “생성적 AI”를 구현하는 데 필요한 소프트웨어와 하드웨어를 구축하는 데 수십억 달러를 투자했습니다.

최근 몇 달 동안, 메타는 수년간의 A를 엮기 위해 무대 뒤에서 열심히 일했습니다.I. 신제품에 대한 연구 개발. Zuckerberg 씨는 그 회사를 A로 만드는 데 집중하고 있습니다.I. 리더, 경영진 및 제품 리더와 매주 이 주제에 대한 회의 개최.

메타에서 가장 큰 A.최근 몇 달간 I. move는 LlaMA, 즉 L.L.M. (LlaMA는 “Large Language Model Meta AI”를 의미합니다.) L.L.M.s는 책, 위키백과 기사, 채팅 로그를 포함한 방대한 양의 텍스트를 분석하여 기술을 배우는 시스템입니다. ChatGPT와 구글의 바드 챗봇도 이러한 시스템 위에 구축됩니다.

L.L.M.는 분석하고 학습하는 텍스트에서 용어 논문, 블로그 게시물, 시 및 컴퓨터 코드를 포함한 텍스트를 생성하는 패턴을 정확히 파악합니다. 그들은 복잡한 대화도 이어갈 수 있습니다.

메타는 지난 2월 LLaMA를 공개적으로 출시해 학계, 정부 연구원 및 이메일 주소를 제공한 다른 사람들이 코드를 다운로드하여 자체 챗봇을 구축할 수 있도록 했습니다.

하지만 그 회사는 다른 많은 오픈 소스 A보다 더 멀리 갔습니다.I. 프로젝트. 그것은 사람들이 인터넷에서 수집된 엄청난 양의 디지털 텍스트에 대한 훈련을 받은 후에 LLaMA 버전을 다운로드할 수 있게 해주었습니다. 연구자들은 이것을 데이터를 분석하면서 시스템이 학습한 특정 수학적 값을 언급하면서 “무게를 푸는 것”이라고 부릅니다.

이 모든 데이터를 분석하는 데는 일반적으로 수백 개의 특수 컴퓨터 칩과 수천만 달러가 필요하기 때문에 대부분의 기업이 가지고 있지 않은 리소스가 중요했습니다. 이러한 강력한 소프트웨어를 만드는 데 드는 비용의 일부를 지출하면서, 가중치를 가진 사람들은 빠르고, 쉽고, 저렴하게 소프트웨어를 배포할 수 있습니다.

결과적으로, 기술 업계의 많은 사람들은 Meta가 위험한 선례를 세웠다고 믿고 있습니다. 그리고 며칠 안에, 누군가가 LLaMA 무게를 4chan에 풀었습니다.

스탠포드 대학의 연구원들은 메타의 새로운 기술을 사용하여 그들만의 A를 만들었습니다.인터넷에서 사용할 수 있게 된 I. 시스템. 뉴욕 타임즈에 의해 목격된 스크린샷에 따르면, Moussa Dumbouya라는 이름의 스탠포드 연구원이 곧 문제가 되는 텍스트를 생성하기 위해 그것을 사용했습니다. 한 예로, 이 시스템은 잡히지 않고 시체를 처리할 수 있는 지침을 제공했고, 또한 아돌프 히틀러의 견해를 지지하는 논평을 포함한 인종차별적인 자료를 생성했습니다.

더 타임스가 본 연구원들 간의 사적인 대화에서, 덤부야 씨는 이 기술을 대중에게 배포하는 것은 “잡화점에 있는 모든 사람들이 이용할 수 있는 수류탄”과 같을 것이라고 말했습니다 그는 논평 요청에 응답하지 않았습니다.

스탠포드는 즉시 A를 제거했습니다.I. 인터넷에서 시스템. 이 프로젝트는 연구자들에게 “최첨단 A의 행동을 포착한” 기술을 제공하기 위해 설계되었습니다.I. 모델입니다.”라고 이 프로젝트를 이끈 스탠포드 대학의 하시모토 타츠노리 교수가 말했습니다. “연구 환경을 넘어 오용 가능성에 대한 우려가 커지면서 데모를 중단했습니다.”

르쿤 박사는 이런 종류의 기술이 보이는 것만큼 위험하지 않다고 주장합니다. 그는 소수의 사람들이 이미 허위 정보와 혐오 발언을 생성하고 퍼뜨릴 수 있다고 말했습니다. 그는 페이스북과 같은 소셜 네트워크에 의해 독성 물질이 엄격하게 제한될 수 있다고 덧붙였습니다.

“당신은 사람들이 헛소리나 위험한 정보를 만드는 것을 막을 수 없습니다.”라고 그가 말했습니다. “하지만 당신은 그것이 전파되는 것을 막을 수 있습니다.”

메타의 경우, 오픈 소스 소프트웨어를 사용하는 더 많은 사람들이 OpenAI, 마이크로소프트 및 구글과 경쟁하면서 경쟁의 장을 공평하게 할 수 있습니다. 전 세계의 모든 소프트웨어 개발자들이 Meta의 도구를 사용하여 프로그램을 구축한다면, 회사가 다음 혁신의 물결을 헤쳐나가면서 잠재적인 무관성을 방지하는 데 도움이 될 수 있습니다.

르쿤 박사는 또한 메타가 A 오픈 소스에 전념한 이유를 설명하기 위해 최근의 역사를 지적했습니다.I. 기술. 그는 소비자 인터넷의 진화는 세계에서 가장 빠르고 가장 광범위한 지식 공유 네트워크를 구축하는 데 도움을 준 개방적이고 공동체적인 표준의 결과라고 말했습니다.

“진보는 개방적일 때 더 빠릅니다,”라고 그는 말했습니다. “여러분은 모두가 기여할 수 있는 보다 활기찬 생태계를 가지고 있습니다.”

In February, Meta made an unusual move in the rapidly evolving world of artificial intelligence: It decided to give away its A.I. crown jewels.

The Silicon Valley giant, which owns Facebook, Instagram and WhatsApp, had created an A.I. technology, called LLaMA, that can power online chatbots. But instead of keeping the technology to itself, Meta released the system’s underlying computer code into the wild. Academics, government researchers and others who gave their email address to Meta could download the code once the company had vetted the individual.

Essentially, Meta was giving its A.I. technology away as open-source software — computer code that can be freely copied, modified and reused — providing outsiders with everything they needed to quickly build chatbots of their own.

“The platform that will win will be the open one,” Yann LeCun, Meta’s chief A.I. scientist, said in an interview.

As a race to lead A.I. heats up across Silicon Valley, Meta is standing out from its rivals by taking a different approach to the technology. Driven by its founder and chief executive, Mark Zuckerberg, Meta believes that the smartest thing to do is share its underlying A.I. engines as a way to spread its influence and ultimately move faster toward the future.

Its actions contrast with those of Google and OpenAI, the two companies leading the new A.I. arms race. Worried that A.I. tools like chatbots will be used to spread disinformation, hate speech and other toxic content, those companies are becoming increasingly secretive about the methods and software that underpin their A.I. products.

Google, OpenAI and others have been critical of Meta, saying an unfettered open-source approach is dangerous. A.I.’s rapid rise in recent months has raised alarm bells about the technology’s risks, including how it could upend the job market if it is not properly deployed. And within days of LLaMA’s release, the system leaked onto 4chan, the online message board known for spreading false and misleading information.

“We want to think more carefully about giving away details or open sourcing code” of A.I. technology, said Zoubin Ghahramani, a Google vice president of research who helps oversee A.I. work. “Where can that lead to misuse?”

But Meta said it saw no reason to keep its code to itself. The growing secrecy at Google and OpenAI is a “huge mistake,” Dr. LeCun said, and a “really bad take on what is happening.” He argues that consumers and governments will refuse to embrace A.I. unless it is outside the control of companies like Google and Meta.

“Do you want every A.I. system to be under the control of a couple of powerful American companies?” he asked.

OpenAI declined to comment.

Meta’s open-source approach to A.I. is not novel. The history of technology is littered with battles between open source and proprietary, or closed, systems. Some hoard the most important tools that are used to build tomorrow’s computing platforms, while others give those tools away. Most recently, Google open-sourced the Android mobile operating system to take on Apple’s dominance in smartphones.

Many companies have openly shared their A.I. technologies in the past, at the insistence of researchers. But their tactics are changing because of the race around A.I. That shift began last year when OpenAI released ChatGPT. The chatbot’s wild success wowed consumers and kicked up the competition in the A.I. field, with Google moving quickly to incorporate more A.I. into its products and Microsoft investing $13 billion in OpenAI.

While Google, Microsoft and OpenAI have since received most of the attention in A.I., Meta has also invested in the technology for nearly a decade. The company has spent billions of dollars building the software and the hardware needed to realize chatbots and other “generative A.I.,” which produce text, images and other media on their own.

In recent months, Meta has worked furiously behind the scenes to weave its years of A.I. research and development into new products. Mr. Zuckerberg is focused on making the company an A.I. leader, holding weekly meetings on the topic with his executive team and product leaders.

Meta’s biggest A.I. move in recent months was releasing LLaMA, which is what is known as a large language model, or L.L.M. (LLaMA stands for “Large Language Model Meta AI.”) L.L.M.s are systems that learn skills by analyzing vast amounts of text, including books, Wikipedia articles and chat logs. ChatGPT and Google’s Bard chatbot are also built atop such systems.

L.L.M.s pinpoint patterns in the text they analyze and learn to generate text of their own, including term papers, blog posts, poetry and computer code. They can even carry on complex conversations.

In February, Meta openly released LLaMA, allowing academics, government researchers and others who provided their email address to download the code and use it to build a chatbot of their own.

But the company went further than many other open-source A.I. projects. It allowed people to download a version of LLaMA after it had been trained on enormous amounts of digital text culled from the internet. Researchers call this “releasing the weights,” referring to the particular mathematical values learned by the system as it analyzes data.

This was significant because analyzing all that data typically requires hundreds of specialized computer chips and tens of millions of dollars, resources most companies do not have. Those who have the weights can deploy the software quickly, easily and cheaply, spending a fraction of what it would otherwise cost to create such powerful software.

As a result, many in the tech industry believed Meta had set a dangerous precedent. And within days, someone released the LLaMA weights onto 4chan.

At Stanford University, researchers used Meta’s new technology to build their own A.I. system, which was made available on the internet. A Stanford researcher named Moussa Doumbouya soon used it to generate problematic text, according to screenshots seen by The New York Times. In one instance, the system provided instructions for disposing of a dead body without being caught. It also generated racist material, including comments that supported the views of Adolf Hitler.

In a private chat among the researchers, which was seen by The Times, Mr. Doumbouya said distributing the technology to the public would be like “a grenade available to everyone in a grocery store.” He did not respond to a request for comment.

Stanford promptly removed the A.I. system from the internet. The project was designed to provide researchers with technology that “captured the behaviors of cutting-edge A.I. models,” said Tatsunori Hashimoto, the Stanford professor who led the project. “We took the demo down as we became increasingly concerned about misuse potential beyond a research setting.”

Dr. LeCun argues that this kind of technology is not as dangerous as it might seem. He said small numbers of individuals could already generate and spread disinformation and hate speech. He added that toxic material could be tightly restricted by social networks such as Facebook.

“You can’t prevent people from creating nonsense or dangerous information or whatever,” he said. “But you can stop it from being disseminated.”

For Meta, more people using open-source software can also level the playing field as it competes with OpenAI, Microsoft and Google. If every software developer in the world builds programs using Meta’s tools, it could help entrench the company for the next wave of innovation, staving off potential irrelevance.

Dr. LeCun also pointed to recent history to explain why Meta was committed to open-sourcing A.I. technology. He said the evolution of the consumer internet was the result of open, communal standards that helped build the fastest, most widespread knowledge-sharing network the world had ever seen.

“Progress is faster when it is open,” he said. “You have a more vibrant ecosystem where everyone can contribute.”

공유하기

댓글 남기기