[NYT]A.I. Regulation Is in Its ‘Early Days’
그러나 활동을 자세히 살펴보면 빠르게 발전하는 기술을 중심으로 정책을 수립하는 데 있어 활동이 얼마나 의미가 있는지에 대한 의문이 제기됩니다.
답은 아직은 그다지 의미가 없다는 것입니다. 미국은 A의 탄생을 향한 길고 어려운 길의 시작에 불과합니다.I. 규칙, 국회의원들과 정책 전문가들은 말했습니다. 청문회, 백악관 최고 기술 경영진과의 회의, A를 소개하기 위한 연설이 있었습니다.I. 법안, 소비자를 보호하고 기술이 일자리에 미치는 위험, 허위 정보 및 보안의 확산을 억제하기 위한 규제의 가장 대략적인 스케치조차도 예측하기에는 너무 이르다는 것입니다.
A를 규제할 독립 기관을 만들 것을 요구해온 소비자 단체 Public Knowledge의 회장인 Chris Lewis는 “이것은 아직 초기 단계이며, 아무도 법이 어떻게 보일지 모릅니다,”라고 말했습니다.I. 그리고 다른 기술 회사들.
미국은 국회의원들이 A를 제정할 준비를 하고 있는 유럽보다 훨씬 뒤쳐져 있습니다.I. 올해 법은 기술의 가장 위험한 용도로 여겨지는 것에 새로운 제한을 가할 것입니다. 대조적으로, 많은 미국 국회의원들이 여전히 이해하려고 노력하고 있는 기술을 다루는 최선의 방법에 대해 미국에서는 많은 의견 차이가 남아 있습니다.
그것은 많은 기술 회사에 적합하다고 정책 전문가들은 말했습니다. 일부 회사들은 AI에 관한 규칙을 환영한다고 말했지만, 그들은 또한 유럽에서 만들어진 것과 유사한 강력한 규제에 대해서도 주장했습니다.여기 A의 상태에 대한 개요가 있습니다.I. 미국의 규정.
백악관에서바이든 행정부는 A와 함께 패스트트랙 청취 투어에 나섰습니다.I. 기업, 학계 및 시민 사회 단체. 이러한 노력은 지난 5월 카말라 해리스 부사장이 백악관에서 마이크로소프트, 구글, OpenAI, 앤트래픽 최고경영자(CEO)를 만나 기술 산업이 안전을 더 심각하게 생각하도록 압박하면서 시작됐습니다.
금요일, 7개 기술 회사 대표들이 백악관에 나타나 A를 만들기 위한 일련의 원칙을 발표했습니다.잘못된 정보의 확산을 방지하기 위해 제3자 보안 검사 및 AI 생성 콘텐츠의 워터마크를 포함한 I. 기술을 더 안전하게 사용할 수 있습니다.
발표된 많은 사례들이 이미 Open에서 시행되었습니다AI, 구글, 마이크로소프트, 또는 효과를 내기 위한 궤도에 올랐습니다. 그들은 새로운 규정을 대표하지 않습니다. 자율 규제에 대한 약속도 소비자 단체들이 바라던 것에 미치지 못했습니다.
“Big Tech에 관한 한 자발적인 약속은 충분하지 않습니다,”라고 개인 정보 보호 단체인 전자 개인 정보 센터의 부소장인 Caitriona Fitzgerald는 말했습니다. “의회와 연방 규제 기관은 A의 사용을 보장하기 위해 의미 있고 집행 가능한 가드레일을 설치해야 합니다.I.는 공정하고 투명하며 개인의 사생활과 시민권을 보호합니다.”
지난 가을, 백악관은 A를 위한 청사진을 소개했습니다.I. 권리장전, 이 기술을 사용한 소비자 보호에 대한 일련의 지침. 가이드라인은 또한 규정이 아니며 시행할 수 없습니다. 이번 주 백악관 관계자들은 AI에 대한 행정명령을 준비하고 있다고 밝혔지만, 구체적인 내용과 시기는 밝히지 않았습니다.
국회 개회중A를 조절하는 가장 큰 북소리.I. 의원들 중 일부는 이 기술에 관한 법안을 제출했습니다. 그들의 제안에는 A에 대한 책임인 AI를 감독하는 기관의 설립이 포함됩니다.I. 허위 정보를 퍼뜨리는 기술과 새로운 A에 대한 허가 요건.I. 도구.
의원들은 또한 5월에 오픈의 최고 경영자인 샘 알트먼과의 청문회를 포함하여 AI에 대한 청문회를 열었습니다인공지능은 ChatGPT 챗봇을 만듭니다. 일부 국회의원들은 A를 소비자에게 알리기 위한 영양 라벨을 포함하여 청문회 기간 동안 다른 규정에 대한 아이디어를 뒤엎었습니다.I. 위험.
그 법안들은 초기 단계에 있으며 아직까지 진전에 필요한 지원을 받지 못하고 있습니다. 지난 달, 뉴욕의 민주당 소속 척 슈머 상원 원내대표는 A의 탄생을 위한 수개월간의 과정을 발표했습니다.I. 가을에 구성원들을 위한 교육 세션을 포함하는 법안.
“여러 면에서 우리는 처음부터 시작하고 있지만, 저는 의회가 그 도전에 달려 있다고 믿습니다,” 라고 그가 전략국제문제연구소에서 당시 연설 중에 말했습니다.
연방 기관에서 규제 기관은 A에서 발생하는 몇 가지 문제를 감시함으로써 조치를 취하기 시작했습니다.i.
지난 주, 연방거래위원회는 오픈에 대한 조사를 시작했습니다AI의 ChatGPT은 회사가 시스템을 어떻게 확보하고 챗봇이 허위 정보를 만들어 소비자에게 피해를 줄 수 있는지에 대한 정보를 요청했습니다. F.T.C. 의장인 리나 칸은 A의 문제 있는 행동을 감시하기 위해 소비자 보호 및 경쟁법에 따라 기관이 충분한 권한을 가지고 있다고 생각한다고 말했습니다.I. 회사들.
“의회가 행동하기를 기다리는 것은 통상적인 의회 행동 일정을 고려할 때 이상적이지 않습니다,” 마이애미 대학의 법학 교수 안드레스 사위키가 말했습니다.
Regulating artificial intelligence has been a hot topic in Washington in recent months, with lawmakers holding hearings and news conferences and the White House announcing voluntary A.I. safety commitments by seven technology companies on Friday.
But a closer look at the activity raises questions about how meaningful the actions are in setting policies around the rapidly evolving technology.
The answer is that it is not very meaningful yet. The United States is only at the beginning of what is likely to be a long and difficult path toward the creation of A.I. rules, lawmakers and policy experts said. While there have been hearings, meetings with top tech executives at the White House and speeches to introduce A.I. bills, it is too soon to predict even the roughest sketches of regulations to protect consumers and contain the risks that the technology poses to jobs, the spread of disinformation and security.
“This is still early days, and no one knows what a law will look like yet,” said Chris Lewis, president of the consumer group Public Knowledge, which has called for the creation of an independent agency to regulate A.I. and other tech companies.
The United States remains far behind Europe, where lawmakers are preparing to enact an A.I. law this year that would put new restrictions on what are seen as the technology’s riskiest uses. In contrast, there remains a lot of disagreement in the United States on the best way to handle a technology that many American lawmakers are still trying to understand.
That suits many of the tech companies, policy experts said. While some of the companies have said they welcome rules around A.I., they have also argued against tough regulations akin to those being created in Europe.Here’s a rundown on the state of A.I. regulations in the United States.
At the White House
The Biden administration has been on a fast-track listening tour with A.I. companies, academics and civil society groups. The effort began in May when Vice President Kamala Harris met at the White House with the chief executives of Microsoft, Google, OpenAI and Anthropic and pushed the tech industry to take safety more seriously.
On Friday, representatives of seven tech companies appeared at the White House to announce a set of principles for making their A.I. technologies safer, including third-party security checks and watermarking of A.I.-generated content to help stem the spread of misinformation.
Many of the practices that were announced had already been in place at OpenAI, Google and Microsoft, or were on track to take effect. They don’t represent new regulations. Promises of self-regulation also fell short of what consumer groups had hoped.
“Voluntary commitments are not enough when it comes to Big Tech,” said Caitriona Fitzgerald, deputy director at the Electronic Privacy Information Center, a privacy group. “Congress and federal regulators must put meaningful, enforceable guardrails in place to ensure the use of A.I. is fair, transparent and protects individuals’ privacy and civil rights.”
Last fall, the White House introduced a Blueprint for an A.I. Bill of Rights, a set of guidelines on consumer protections with the technology. The guidelines also aren’t regulations and are not enforceable. This week, White House officials said they were working on an executive order on A.I., but didn’t reveal details and timing.
In Congress
The loudest drumbeat on regulating A.I. has come from lawmakers, some of whom have introduced bills on the technology. Their proposals include the creation of an agency to oversee A.I., liability for A.I. technologies that spread disinformation and the requirement of licensing for new A.I. tools.
Lawmakers have also held hearings about A.I., including a hearing in May with Sam Altman, the chief executive of OpenAI, which makes the ChatGPT chatbot. Some lawmakers have tossed around ideas for other regulations during the hearings, including nutritional labels to notify consumers of A.I. risks.
The bills are in their earliest stages and so far do not have the support needed to advance. Last month, The Senate leader, Chuck Schumer, Democrat of New York, announced a monthslong process for the creation of A.I. legislation that included educational sessions for members in the fall.
“In many ways we’re starting from scratch, but I believe Congress is up to the challenge,” he said during a speech at the time at the Center for Strategic and International Studies.
At federal agencies
Regulatory agencies are beginning to take action by policing some issues emanating from A.I.
Last week, the Federal Trade Commission opened an investigation into OpenAI’s ChatGPT and asked for information on how the company secures its systems and how the chatbot could potentially harm consumers through the creation of false information. The F.T.C. chair, Lina Khan, has said she believes the agency has ample power under consumer protection and competition laws to police problematic behavior by A.I. companies.
“Waiting for Congress to act is not ideal given the usual timeline of congressional action,” said Andres Sawicki, a professor of law at the University of Miami.
