[NYT]White House Unveils Initiatives to Reduce Risks of AI
카말라 해리스 부통령과 다른 행정부 관리들은 구글, 마이크로소프트, 인기 있는 ChatGPT 챗봇의 제조업체인 OpenAI, 그리고 A사의 리더들과 만날 예정입니다.I. 기술에 대해 논의하기 위해 시작합니다.
백악관은 기업들에게 새로운 A의 위험을 해결할 책임이 있다는 것을 상기시킬 계획이었습니다.I. 발전. “우리는 현재 및 단기 A에서 각각 보이는 위험에 대해 솔직한 논의를 하는 것을 목표로 합니다.I. 개발, 그러한 위험을 완화하기 위한 조치 및 다른 방법들은 미국 국민들이 A의 발전으로부터 이익을 얻을 수 있도록 함께 일할 수 있습니다.I. 그 해로움으로부터 보호받는 동안,” 라고 뉴욕 타임즈가 입수한 회의 초대장에서 아라티 프라바카르 백악관 과학기술정책실장이 말했습니다.
회의 몇 시간 전, 백악관은 국립과학재단이 인공지능에 전념하는 새로운 연구 센터에 1억 4천만 달러를 쓸 계획이라고 발표했습니다. 행정부는 또한 A의 사용을 보장하기 위해 정부 기관을 위한 지침 초안을 발표할 것을 약속했습니다.I. “미국 국민의 권리와 안전”을 보호하며 여러 A.I. 회사들은 8월에 사이버 보안 회의에서 그들의 제품을 정밀 조사할 수 있도록 하는 데 동의했습니다.
백악관은 A 경찰에 대한 압력이 커지고 있습니다.I. 정교한 산문과 실제와 같은 이미지를 만들 수 있는 능력이 있습니다. 이 기술에 대한 관심이 폭발적으로 증가한 것은 지난해 OpenAI가 ChatGPT를 대중에게 공개하고 사람들이 즉시 정보를 검색하고, 학업을 하고, 그들의 직업을 돕기 위해 이 기술을 사용하기 시작하면서 시작되었습니다. 그 이후로, 몇몇 가장 큰 기술 회사들은 서둘러 챗봇을 제품에 통합하고 A를 가속화했습니다.I. 벤처 투자가들이 A에 돈을 쏟아붓는 동안 연구.I. 창업.
하지만 A.I. 붐은 또한 이 기술이 어떻게 경제를 변화시키고 지정학을 뒤흔들고 범죄 활동을 강화할 것인지에 대한 의문을 제기했습니다. 비평가들은 많은 A를 걱정했습니다.I. 시스템은 불투명하지만 매우 강력하며, 차별적인 결정을 내리고, 직업에 종사하는 사람들을 교체하고, 허위 정보를 퍼뜨리고, 심지어 스스로 법을 어길 수도 있습니다.
바이든 대통령은 최근 A가 “지켜봐야 할 것”이라고 말했습니다.I.는 위험하며, 그의 수석 임명자들 중 일부는 기술이 해로운 방식으로 사용될 경우 개입하겠다고 약속했습니다.
OpenAI의 최고 경영자인 이미지 샘 알트먼은 목요일에 카말라 해리스 부통령과 만날 것입니다. 신용카드…짐 윌슨/뉴욕타임스 구글, 마이크로소프트, OpenAI 대변인은 백악관 회의를 앞두고 논평을 거부했습니다. Anthropic의 대변인은 그 회사가 참석할 것이라고 확인했습니다.
이 발표는 A에 가드레일을 설치하려는 행정부의 초기 노력에 기반을 두고 있습니다.I. 작년에, 백악관은 A에 대한 청사진이라고 부르는 것을 발표했습니다.I. 자동화된 시스템이 사용자의 데이터 개인 정보를 보호해야 한다는 권리장전은 사용자를 차별적인 결과로부터 보호하고 특정 조치가 취해진 이유를 명확히 합니다. 지난 1월 상무부도 A의 위험을 줄이기 위한 프레임워크를 발표했습니다.수년간 진행되어 온 I.
ChatGPT와 구글의 바드와 같은 챗봇의 도입은 정부가 행동을 취해야 한다는 엄청난 압력을 가했습니다. 이미 인공지능에 규제를 협상하고 있던 유럽 연합은 본질적으로 높은 위험으로 보이는 시스템 대신 더 넓은 인공지능 범위를 규제해야 한다는 새로운 요구에 직면했습니다.
미국에서는 다수당 대표인 뉴욕의 척 슈머 상원의원을 포함한 의회 의원들이 A를 규제하기 위한 법안을 입안하거나 제안하는 움직임을 보이고 있습니다.I. 그러나 미국의 기술을 통제하기 위한 구체적인 조치는 워싱턴의 법 집행 기관에서 먼저 나올 가능성이 더 높습니다.
정부 기관 그룹은 4월에 “자동화된 시스템의 개발과 사용을 감시하고 책임 있는 혁신을 촉진”하는 동시에 그 기술을 사용하는 것에 저촉되는 법 위반을 처벌하겠다고 약속했습니다.
수요일 타임즈의 초청 에세이에서, 연방 무역 위원회의 의장인 리나 칸은 국가가 A와 “핵심적인 결정점”에 있다고 말했습니다.I. 그녀는 이 기술의 최근 발전을 구글과 페이스북과 같은 거대 기술 기업의 탄생에 비유하며, 적절한 규제가 없다면, 이 기술이 최대 기술 기업의 힘을 공고히 하고 사기꾼들에게 강력한 도구를 제공할 수 있다고 경고했습니다.
“A의 용도로.I. 더 널리 퍼지게 되고, 공무원들은 이 어렵게 배운 역사가 반복되지 않도록 보장할 책임이 있습니다,” 라고 그녀가 말했습니다.
The White House on Thursday will host its first gathering of chief executives of companies building artificial intelligence since a boom in A.I.-powered chatbots has prompted growing calls to regulate the technology.
Vice President Kamala Harris and other administration officials are scheduled to meet with the leaders of Google, Microsoft, OpenAI, the maker of the popular ChatGPT chatbot, and Anthropic, an A.I. start-up, to discuss the technology.
The White House planned to impress upon the companies that they had a responsibility to address the risks of new A.I. developments. “We aim to have a frank discussion of the risks we each see in current and near-term A.I. development, actions to mitigate those risks and other ways we can work together to ensure the American people benefit from advances in A.I. while being protected from its harms,” said Arati Prabhakar, the director of the White House office of science and technology policy, in an invitation to the meeting obtained by The New York Times.
Hours before the meeting, the White House announced that the National Science Foundation plans to spend $140 million on new research centers devoted to A.I. The administration also pledged to release draft guidelines for government agencies to ensure that their use of A.I. safeguards “the American people’s rights and safety,” adding that several A.I. companies had agreed to make their products available for scrutiny in August at a cybersecurity conference.
The White House has been under growing pressure to police A.I. that is capable of crafting sophisticated prose and lifelike images. The explosion of interest in the technology began last year when OpenAI released ChatGPT to the public and people immediately began using it to search for information, do schoolwork and assist them with their jobs. Since then, some of the biggest tech companies have rushed to incorporate chatbots into their products and accelerated A.I. research, while venture capitalists have poured money into A.I. start-ups.
But the A.I. boom has also raised questions about how the technology will transform economies, shake up geopolitics and bolster criminal activity. Critics have worried that many A.I. systems are opaque but extremely powerful, with the potential to make discriminatory decisions, replace people in their jobs, spread disinformation and perhaps even break the law on their own.
President Biden recently said that it “remains to be seen” whether A.I. is dangerous, and some of his top appointees have pledged to intervene if the technology is used in a harmful way.
ImageSam Altman, standing, the chief executive of OpenAI, will meet with Vice President Kamala Harris on Thursday. Credit…Jim Wilson/The New York Times
Spokeswomen for Google, Microsoft and OpenAI declined to comment ahead of the White House meeting. A spokesman for Anthropic confirmed that the company would be attending.
The announcements build on earlier efforts by the administration to place guardrails on A.I. Last year, the White House released what it called a blueprint for an A.I. bill of rights, which said that automated systems should protect users’ data privacy, shield them from discriminatory outcomes and make clear why certain actions were taken. In January, the Commerce Department also released a framework for reducing risk in A.I. development, which had been in the works for years.
The introduction of chatbots like ChatGPT and Google’s Bard has put huge pressure on governments to act. The European Union, which had already been negotiating regulations to A.I., has faced new demands to regulate a broader swath of A.I., instead of just systems seen as inherently high risk.
In the United States, members of Congress, including Senator Chuck Schumer of New York, the majority leader, have moved to draft or propose legislation to regulate A.I. But concrete steps to rein in the technology in the country may be more likely to come first from law enforcement agencies in Washington.
A group of government agencies pledged in April to “monitor the development and use of automated systems and promote responsible innovation,” while punishing violations of the law committed using the technology.
In a guest essay in The Times on Wednesday, Lina Khan, the chair of the Federal Trade Commission, said the nation was at a “key decision point” with A.I. She likened the technology’s recent developments to the birth of tech giants like Google and Facebook, and she warned that, without proper regulation, the technology could entrench the power of the biggest tech companies and give scammers a potent tool.
“As the use of A.I. becomes more widespread, public officials have a responsibility to ensure this hard-learned history doesn’t repeat itself,” she said.
