메타, 구글 그리고 A.I. 기업들은 바이든 회의에서 안전 조치에 동의한다

메타, 구글 그리고 A.I. 기업들은 바이든 회의에서 안전 조치에 동의한다

[NYT]Meta, Google and A.I. Firms Agree to Safety Measures in Biden Meeting

일곱 명의 선두 A.I. 미국의 기업들은 인공지능의 잠재력을 놓고 경쟁하는 동안에도 새로운 도구의 위험을 관리할 것을 약속하며 기술 개발에 대한 자발적인 보호 조치에 동의했다고 백악관이 금요일에 발표했습니다.

Amazon, Antropic, Google, Inflection, Meta, Microsoft 및 Open의 7개 회사AI는 금요일 오후 백악관에서 열린 바이든 대통령과의 회의에서 안전, 보안 및 신뢰를 위한 새로운 표준에 대한 공식적인 약속을 했습니다.

“우리는 민주주의와 우리의 가치에 영향을 미칠 수 있는 신흥 기술에서 발생하는 위협에 대해 명확하고 경계해야 합니다.”라고 바이든 대통령은 백악관 루스벨트 방에서 짧은 발언을 통해 말했습니다.

“이것은 심각한 책임입니다; 우리는 그것을 바로잡아야 합니다,”라고 그는 회사의 임원들과 함께 말했습니다. “그리고 엄청난 잠재력도 있습니다.”

그 발표는 회사들이 A 버전으로 서로를 능가하기 위해 경쟁하고 있는 가운데 나왔습니다.I. 사람의 입력 없이도 텍스트, 사진, 음악 및 비디오를 만들 수 있는 강력하고 새로운 방법을 제공합니다. 하지만 기술적인 도약은 인공지능이 더 정교해지고 인간적이 되면서 허위 정보의 확산에 대한 두려움과 “멸종의 위험”에 대한 끔찍한 경고를 촉발시켰습니다.

자발적인 보호 조치는 미국과 전 세계 정부가 인공지능 개발을 위한 법적 및 규제 프레임워크를 마련하려고 노력하고 있기 때문에 초기의 잠정적인 단계일 뿐입니다. 계약에는 제품의 보안 위험을 테스트하고 워터마크를 사용하여 소비자가 A를 확인할 수 있도록 하는 것이 포함됩니다.I.생성 물질.

하지만 국회의원들은 빠르게 발전하는 기술을 따라가는 방식으로 소셜 미디어와 다른 기술들을 규제하기 위해 고군분투했습니다.

백악관은 또 다른 문제를 다루는 것을 목표로 하는 다가오는 대통령 행정명령에 대해 구체적인 내용을 제시하지 않았습니다. 즉, 중국과 다른 경쟁국들이 새로운 인공지능 프로그램을 입수할 수 있는 능력을 어떻게 통제할 것인지, 또는 이를 개발하는 데 사용되는 구성 요소를 어떻게 통제할 것인지 등입니다.

이 명령에는 첨단 반도체에 대한 새로운 제한과 대형 언어 모델의 수출에 대한 제한이 포함될 것으로 예상됩니다. 대부분의 소프트웨어는 압축되어 썸 드라이브에 장착할 수 있기 때문에 보안이 어렵습니다.

행정명령은 관련 기업들의 관행에 이미 반영된 금요일의 자발적 약속보다 업계의 더 많은 반발을 불러일으킬 수 있습니다. 그 약속들은 A의 계획을 구속하지 않을 것입니다.I. 기업은 기술 개발을 방해하지 않습니다. 그리고 자발적인 약속으로서, 그것들은 정부 규제 기관에 의해 시행되지 않을 것입니다.

“우리는 이 분야의 다른 사람들과 함께 이러한 자발적인 약속을 하게 되어 기쁩니다,”라고 페이스북의 모회사인 메타의 글로벌 문제 사장인 닉 클레그가 성명에서 말했습니다. “그들은 A에게 책임감 있는 가드레일을 구축하기 위한 중요한 첫 단계입니다.I. 그리고 그들은 다른 정부들이 따라야 할 모델을 만듭니다.”

안전 조치의 일환으로, 회사들은 부분적으로 독립적인 전문가에 의한 보안 테스트, 편향 및 개인 정보 보호 우려에 대한 연구, 정부 및 기타 조직과의 위험에 대한 정보 공유, 기후 변화와 같은 사회적 과제에 대처하기 위한 도구 개발, AI 생성 물질을 식별하기 위한 투명성 조치에 동의했습니다.

합의를 발표하는 성명에서 바이든 행정부는 기업들이 “미국인들의 권리와 안전을 희생하여 혁신이 일어나지 않도록 해야 한다”고 말했습니다

“이러한 새로운 기술을 개발하고 있는 회사들은 그들의 제품이 안전한지 확인할 책임이 있습니다,”라고 행정부는 성명서에서 말했습니다.

마이크로소프트사의 사장이자 백악관 회의에 참석한 임원 중 한 명인 브래드 스미스는 그의 회사가 자발적인 안전 조치를 지지했다고 말했습니다.

“백악관의 약속은 신속하게 진행됨으로써 A의 약속을 보장하는 데 도움이 될 수 있는 기반을 만듭니다.I. 위험을 미연에 방지합니다.”라고 스미스 씨는 말했습니다.

Anna Makanju, 오픈의 글로벌 업무 부사장AI는 이 발표를 “AI 거버넌스를 발전시키기 위해 전 세계 정부, 시민 사회 단체 및 기타 기관과 진행 중인 협력의 일부”라고 설명했습니다

금요일에 설명된 표준은 두 가지 목적으로 사용됩니다. 자체 정책을 통해 입법 및 규제 움직임을 사전에 방지하거나 구체화하려는 노력과 신중하고 능동적으로 새로운 기술을 처리하고 있다는 신호입니다.

그러나 그들이 동의한 규칙은 대체로 가장 낮은 공통분모이며, 모든 회사가 다르게 해석할 수 있습니다. 예를 들어, 회사들은 A 세대의 언어 모델을 만드는 데 사용된 데이터에 대한 엄격한 사이버 보안 조치에 전념했습니다.I. 프로그램이 개발되었습니다. 그러나 그것이 무엇을 의미하는지에 대한 구체적인 내용은 없으며, 기업들은 어쨌든 그들의 지적 재산권을 보호하는 데 관심이 있을 것입니다.

그리고 심지어 가장 조심스러운 회사들도 취약합니다. 바이든 대통령과 함께 백악관 행사에 참석한 기업 중 하나인 마이크로소프트는 지난 주 중국과 거래하던 미국 관리들의 개인 이메일에 대한 중국 정부가 조직한 해킹에 대응하기 위해 안간힘을 썼습니다. 이제 중국은 마이크로소프트가 보유한 “개인 키”를 훔쳤거나 어떻게든 입수한 것으로 보이며, 이는 회사의 가장 엄격한 보안 코드 중 하나입니다.

이러한 위험을 고려할 때, 이 협정은 새로운 기술에 대한 입법 통과와 규제를 위한 노력을 늦추지 않을 것으로 보입니다.

뉴욕 대학의 스턴 비즈니스 및 인권 센터의 부소장인 폴 배럿은 인공지능이 사회에 가하는 위험으로부터 보호하기 위해 더 많은 조치가 필요하다고 말했습니다.

“오늘 발표된 자발적 약속은 집행 가능하지 않습니다. 그렇기 때문에 의회는 백악관과 함께 투명성, 사생활 보호, 그리고 AI가 초래하는 광범위한 위험에 대한 강화된 연구를 요구하는 법안을 신속하게 만드는 것이 중요합니다.”라고 Barrett은 성명에서 말했습니다.

유럽 규제 당국은 A를 채택할 준비가 되어 있습니다.I. 올해 말에 제정된 법률로 인해 많은 기업들이 미국의 규제를 장려하고 있습니다. 몇몇 국회의원들은 A에 대한 허가를 포함하는 법안을 제출했습니다.I. 기술을 공개하는 기업, 산업을 감독하는 연방 기관의 설립 및 데이터 개인 정보 보호 요구 사항. 하지만 국회의원들은 규칙에 대한 합의와는 거리가 멉니다.

국회의원들은 A의 상승을 어떻게 다룰지 고심해 왔습니다.일부는 소비자에 대한 위험에 초점을 맞추고 다른 일부는 해당 분야의 지배력 경쟁에서 적수, 특히 중국에 뒤처질 것을 심각하게 우려하는 I. 기술.

이번 주, 중국과의 경쟁에 관한 하원 위원회는 미국에 기반을 둔 벤처 캐피털 회사들에게 그들이 중국 A에 투자한 것에 대한 계산을 요구하는 초당적인 서한을 보냈습니다.I. 그리고 반도체 회사들. 몇 달 동안, 다양한 하원과 상원 위원회는 A에 대해 의문을 제기해 왔습니다.I. 업계에서 가장 영향력 있는 기업가와 비평가들은 의회가 어떤 종류의 입법 가드레일과 인센티브를 탐구해야 하는지 결정합니다.

오픈의 샘 알트먼을 포함한 많은 목격자들이AI는 국회의원들에게 A를 규제해 달라고 간청했습니다.I. 산업계, 신기술이 과도한 피해를 일으킬 가능성을 지적하고 있습니다. 그러나 많은 국회의원들이 여전히 정확한 A가 무엇인지 이해하기 위해 고군분투하고 있는 의회에서 그 규제는 진행되는 것이 느렸습니다.I. 기술은.

의원들의 이해를 높이기 위한 시도로, 뉴욕의 민주당이자 다수당 대표인 척 슈머 상원의원은 올 여름 정부 관계자들과 전문가들로부터 인공지능의 장점과 위험성에 대해 듣기 위해 일련의 세션을 시작했습니다.

카룬 데미르지안은 워싱턴으로부터의 보도에 기여했습니다.

Seven leading A.I. companies in the United States have agreed to voluntary safeguards on the technology’s development, the White House announced on Friday, pledging to manage the risks of the new tools even as they compete over the potential of artificial intelligence.

The seven companies — Amazon, Anthropic, Google, Inflection, Meta, Microsoft and OpenAI — formally made their commitment to new standards for safety, security and trust at a meeting with President Biden at the White House on Friday afternoon.

“We must be cleareyed and vigilant about the threats emerging from emerging technologies that can pose — don’t have to but can pose — to our democracy and our values,” Mr. Biden said in brief remarks from the Roosevelt Room at the White House.

“This is a serious responsibility; we have to get it right,” he said, flanked by the executives from the companies. “And there’s enormous, enormous potential upside as well.”

The announcement comes as the companies are racing to outdo each other with versions of A.I. that offer powerful new ways to create text, photos, music and video without human input. But the technological leaps have prompted fears about the spread of disinformation and dire warnings of a “risk of extinction” as artificial intelligence becomes more sophisticated and humanlike.

The voluntary safeguards are only an early, tentative step as Washington and governments across the world seek to put in place legal and regulatory frameworks for the development of artificial intelligence. The agreements include testing products for security risks and using watermarks to make sure consumers can spot A.I.-generated material.

But lawmakers have struggled to regulate social media and other technologies in ways that keep up with the rapidly evolving technology.

The White House offered no details of a forthcoming presidential executive order that aims to deal with another problem: how to control the ability of China and other competitors to get ahold of the new artificial intelligence programs, or the components used to develop them.

The order is expected to involve new restrictions on advanced semiconductors and restrictions on the export of the large language models. Those are hard to secure — much of the software can fit, compressed, on a thumb drive.

An executive order could provoke more opposition from the industry than Friday’s voluntary commitments, which experts said were already reflected in the practices of the companies involved. The promises will not restrain the plans of the A.I. companies nor hinder the development of their technologies. And as voluntary commitments, they will not be enforced by government regulators.

“We are pleased to make these voluntary commitments alongside others in the sector,” Nick Clegg, the president of global affairs at Meta, the parent company of Facebook, said in a statement. “They are an important first step in ensuring responsible guardrails are established for A.I. and they create a model for other governments to follow.”

As part of the safeguards, the companies agreed to security testing, in part by independent experts; research on bias and privacy concerns; information sharing about risks with governments and other organizations; development of tools to fight societal challenges like climate change; and transparency measures to identify A.I.-generated material.

In a statement announcing the agreements, the Biden administration said the companies must ensure that “innovation doesn’t come at the expense of Americans’ rights and safety.”

“Companies that are developing these emerging technologies have a responsibility to ensure their products are safe,” the administration said in a statement.

Brad Smith, the president of Microsoft and one of the executives attending the White House meeting, said his company endorsed the voluntary safeguards.

“By moving quickly, the White House’s commitments create a foundation to help ensure the promise of A.I. stays ahead of its risks,” Mr. Smith said.

Anna Makanju, the vice president of global affairs at OpenAI, described the announcement as “part of our ongoing collaboration with governments, civil society organizations and others around the world to advance AI governance.”

For the companies, the standards described Friday serve two purposes: as an effort to forestall, or shape, legislative and regulatory moves with self-policing, and a signal that they are dealing with the new technology thoughtfully and proactively.

But the rules on which they agreed are largely the lowest common denominator, and can be interpreted by every company differently. For example, the firms committed to strict cybersecurity measures around the data used to make the language models on which generative A.I. programs are developed. But there is no specificity about what that means, and the companies would have an interest in protecting their intellectual property anyway.

And even the most careful companies are vulnerable. Microsoft, one of the firms attending the White House event with Mr. Biden, scrambled last week to counter a Chinese government-organized hack on the private emails of American officials who were dealing with China. It now appears that China stole, or somehow obtained, a “private key” held by Microsoft that is the key to authenticating emails — one of the company’s most closely guarded pieces of code.

Given such risks, the agreement is unlikely to slow the efforts to pass legislation and impose regulation on the emerging technology.

Paul Barrett, the deputy director of the Stern Center for Business and Human Rights at New York University, said that more needed to be done to protect against the dangers that artificial intelligence posed to society.

“The voluntary commitments announced today are not enforceable, which is why it’s vital that Congress, together with the White House, promptly crafts legislation requiring transparency, privacy protections, and stepped-up research on the wide range of risks posed by generative A.I.,” Mr. Barrett said in a statement.

European regulators are poised to adopt A.I. laws later this year, which has prompted many of the companies to encourage U.S. regulations. Several lawmakers have introduced bills that include licensing for A.I. companies to release their technologies, the creation of a federal agency to oversee the industry, and data privacy requirements. But members of Congress are far from agreement on rules.

Lawmakers have been grappling with how to address the ascent of A.I. technology, with some focused on risks to consumers and others acutely concerned about falling behind adversaries, particularly China, in the race for dominance in the field.

This week, the House committee on competition with China sent bipartisan letters to U.S.-based venture capital firms, demanding a reckoning over investments they had made in Chinese A.I. and semiconductor companies. For months, a variety of House and Senate panels have been questioning the A.I. industry’s most influential entrepreneurs and critics to determine what sort of legislative guardrails and incentives Congress ought to be exploring.

Many of those witnesses, including Sam Altman of OpenAI, have implored lawmakers to regulate the A.I. industry, pointing out the potential for the new technology to cause undue harm. But that regulation has been slow to get underway in Congress, where many lawmakers still struggle to grasp what exactly A.I. technology is.

In an attempt to improve lawmakers’ understanding, Senator Chuck Schumer, Democrat of New York and the majority leader, began a series of sessions this summer to hear from government officials and experts about the merits and dangers of artificial intelligence across a number of fields.

Karoun Demirjian contributed reporting from Washington.

공유하기

댓글 남기기