고용에 AI가 어떻게 사용되는지 규제하려는 뉴욕시

고용에 AI가 어떻게 사용되는지 규제하려는 뉴욕시

[NYT]New York City Moves to Regulate How AI Is Used in Hiring

유럽 의원들은 A에 대한 작업을 마무리하고 있습니다.I. 행동. 바이든 행정부와 의회 지도자들은 인공지능을 통제할 계획을 가지고 있습니다. A의 제조업체인 OpenAI의 최고 경영자 샘 알트먼.I. 센세이션 ChatGPT는 지난주 상원 증언에서 감독 및 허가 권한을 가진 연방 기관을 설립할 것을 권고했습니다. 그리고 그 주제는 일본에서 열린 G7 정상회의에서 제기되었습니다.

광범위한 계획과 공약 속에서, 뉴욕시는 A의 겸손한 개척자로 부상했습니다.I. 규정.

서울시 정부는 2021년에 법을 통과시켰고 지난 달에 고용과 승진 결정이라는 한 가지 중요한 기술 적용에 대한 구체적인 규칙을 채택했습니다. 시행은 7월에 시작됩니다.

그 도시의 법은 A를 사용하는 회사들을 요구합니다.I. 자동화된 시스템이 사용되고 있음을 지원자에게 알리기 위한 채용 소프트웨어. 또한 기업은 매년 독립 감사인이 기술의 편향성을 검사하도록 요구합니다. 후보자는 수집 및 분석 중인 데이터를 요청하고 이를 알려줄 수 있습니다. 회사들은 위반으로 벌금을 물게 될 것입니다.

뉴욕시의 집중적인 접근 방식은 A의 중요한 전선을 나타냅니다.I. 규정. 전문가들은 정부와 국제기구가 개발한 광범위한 원칙이 어느 시점에서 세부사항과 정의로 해석되어야 한다고 말합니다. 기술의 영향을 받는 사람은 누구입니까? 이점과 해로움은 무엇입니까? 누가 어떻게 개입할 수 있습니까?

“구체적인 사용 사례가 없다면, 여러분은 그러한 질문들에 대답할 수 있는 위치에 있지 않습니다,”라고 뉴욕 대학의 부교수이자 책임감 있는 A 센터의 책임자인 Julia Stoyanovich가 말했습니다.i.

하지만 그것이 시행되기도 전에 뉴욕시 법은 비판의 대상이 되어 왔습니다. 공익 옹호자들은 그것이 충분히 진행되지 않는다고 말하는 반면, 기업 단체들은 그것이 비현실적이라고 말합니다.

양 진영의 불만은 AI 규제의 어려움을 지적하고 있습니다. AI는 결과를 알 수 없는 무서운 속도로 진행되어 열정과 불안을 불러일으키고 있습니다.

불안한 타협은 불가피합니다.

스토야노비치 씨는 도시법이 그것을 약화시킬 수 있는 허점을 가지고 있다고 우려하고 있습니다. “하지만 법이 없는 것보다 훨씬 나아요,” 라고 그녀가 말했습니다. “그리고 당신이 규제하려고 노력할 때까지, 당신은 방법을 배울 수 없을 것입니다.”

이 법은 뉴욕시에 근로자가 있는 회사에 적용되지만, 노동 전문가들은 이 법이 전국적으로 관행에 영향을 미칠 것으로 예상합니다. 캘리포니아, 뉴저지, 뉴욕, 버몬트 등 최소 4개 주와 콜롬비아 특별구도 A를 규제하기 위한 법을 마련하고 있습니다.I. 고용에 있어서. 그리고 일리노이와 메릴랜드는 특정 A의 사용을 제한하는 법을 제정했습니다.I. 종종 작업장 감시 및 구직자 심사를 위한 기술.

뉴욕시의 법은 첨예하게 대립하는 관점들의 충돌에서 비롯되었습니다. 시의회는 빌 드 블라시오 시장 행정부의 마지막 날에 이 법안을 통과시켰습니다. 규칙을 제정하는 기관인 시 소비자 및 근로자 보호부가 감독하는 청문회와 10만 단어 이상의 공개 논평이 나중에 나왔습니다.

일부 비평가들은 그 결과가 기업 이익에 지나치게 동조적이라고 말합니다.

“역사적인 법이 될 수 있었던 것은 효과를 잃기 위해 희석되었습니다,” 라고 정책 및 시민 권리 단체인 민주주의 및 기술 센터의 회장 알렉산드라 기븐스가 말했습니다.

그것은 법이 “자동 고용 결정 도구”를 “실질적으로 재량적 의사 결정을 지원하거나 대체하기 위해” 사용되는 기술로 정의하기 때문입니다.”라고 그녀가 말했습니다. 시에서 채택한 규칙은 그 문구를 A로 좁게 해석하는 것으로 보입니다.I. 소프트웨어는 고용 결정의 유일한 또는 주요 요인이거나 인간을 지배하는 데 사용되는 경우에만 감사를 요구할 것이라고 기븐스 씨는 말했습니다.

그녀는 자동화된 소프트웨어가 사용되는 주요 방식을 제외하고 채용 관리자가 항상 최종 선택을 한다고 말했습니다. 그녀는 AI가 주도하는 차별의 가능성은 전형적으로 수백 또는 수천 명의 후보자를 소수로 선별하거나 후보자 풀을 생성하기 위한 목표 온라인 모집에서 나온다고 말했습니다.

기븐스 씨는 또한 불공정한 대우로 측정되는 그룹의 종류를 제한하는 법을 비판했습니다. 그것은 성별, 인종, 민족에 의한 편견을 다루지만 나이든 노동자나 장애를 가진 사람들에 대한 차별은 다루지 않습니다.

“저의 가장 큰 걱정은 우리가 정책 입안자들에게 훨씬 더 많은 것을 요구해야 할 때 이것이 국가적으로 본보기가 된다는 것입니다,”라고 기븐스 씨는 말했습니다.

이 법은 그것을 강화하고 그것이 집중적이고 집행 가능한지 확인하기 위해 좁혀졌다고 시 공무원들은 말했습니다. 의회와 노동자 보호 기관은 공익 활동가와 소프트웨어 회사를 포함한 많은 목소리를 들었습니다. 그것의 목표는 혁신과 잠재적 피해 사이의 균형을 저울질하는 것이었다고 관계자들은 말했습니다.

“이것은 A를 보장하기 위한 중요한 규제 성공입니다.I. 기술은 윤리적으로 그리고 책임감 있게 사용됩니다.”라고 법이 통과되었을 때 기술 위원회 위원장이었고 위원회 위원으로 남아 있는 로버트 홀든이 말했습니다.

뉴욕시는 1970년대까지 고용에 관한 지침을 가지고 연방 직장법의 맥락에서 새로운 기술을 다루려고 노력하고 있습니다. 평등 고용 기회 위원회의 주요 규칙은 고용주가 사용하는 어떤 관행이나 선택 방법도 여성이나 소수자와 같은 법적으로 보호받는 그룹에 “별도의 영향”을 미치지 않아야 한다고 명시하고 있습니다.

기업들은 이 법을 비판해 왔습니다. Microsoft, SAP 및 Workday가 포함된 무역 그룹인 Software Alliance는 올해 파일에서 A에 대한 독립적인 감사 요건을 말했습니다.I.는 “감사 환경이 초기 단계이며, 기준과 전문적인 감독 기관이 부족하기 때문에” 실현 가능하지 않았습니다.

그러나 초기 분야는 시장 기회입니다. 전문가들은 AI 감사 사업이 성장할 것이라고 말합니다. 이미 로펌, 컨설턴트, 스타트업들을 끌어들이고 있습니다.

A를 판매하는 회사.I. 고용 및 승진 결정을 지원하는 소프트웨어는 일반적으로 규제를 수용하게 되었습니다. 일부는 이미 외부 감사를 받았습니다. 이들은 이러한 요구사항을 잠재적인 경쟁력으로 보고 있으며, 이는 자사의 기술이 기업의 일자리 후보군을 확대하고 근로자의 기회를 증가시킨다는 증거를 제공하고 있습니다.

“우리는 우리가 법을 준수하고 A가 얼마나 좋은지 보여줄 수 있다고 믿습니다.I.”라고 매니저 채용을 지원하는 소프트웨어를 생산하는 실리콘 밸리 스타트업인 에이트폴드 AI의 총괄 고문인 로이 왕이 말했습니다.

뉴욕시의 법은 A를 규제하는 접근법도 취하고 있습니다.I. 그것이 표준이 될 수도 있습니다. 이 법의 핵심 측정치는 “영향 비율”, 즉 소프트웨어 사용이 보호된 구직자 그룹에 미치는 영향의 계산입니다. 그것은 “설명 가능성”으로 알려진 개념인 알고리즘이 결정을 내리는 방법을 탐구하지 않습니다

비평가들은 고용과 같은 삶에 영향을 미치는 애플리케이션에서 사람들은 결정이 어떻게 이루어졌는지 설명할 권리가 있다고 말합니다. 그러나 ChatGPT 스타일의 소프트웨어와 같은 인공지능은 설명 가능한 인공지능의 목표를 제시하면서 점점 더 복잡해지고 있습니다.I. 일부 전문가들은 손이 닿지 않는다고 말합니다.

A의 안전한 사용을 위한 인증을 개발하고 있는 책임 있는 AI 연구소의 애슐리 카소반 전무는 “초점은 알고리즘의 작업이 아니라 알고리즘의 출력이 됩니다.”라고 말했습니다.I. 직장, 의료 및 금융 분야의 응용 프로그램.

European lawmakers are finishing work on an A.I. act. The Biden administration and leaders in Congress have their plans for reining in artificial intelligence. Sam Altman, the chief executive of OpenAI, maker of the A.I. sensation ChatGPT, recommended the creation of a federal agency with oversight and licensing authority in Senate testimony last week. And the topic came up at the Group of 7 summit in Japan.

Amid the sweeping plans and pledges, New York City has emerged as a modest pioneer in A.I. regulation.

The city government passed a law in 2021 and adopted specific rules last month for one high-stakes application of the technology: hiring and promotion decisions. Enforcement begins in July.

The city’s law requires companies using A.I. software in hiring to notify candidates that an automated system is being used. It also requires companies to have independent auditors check the technology annually for bias. Candidates can request and be told what data is being collected and analyzed. Companies will be fined for violations.

New York City’s focused approach represents an important front in A.I. regulation. At some point, the broad-stroke principles developed by governments and international organizations, experts say, must be translated into details and definitions. Who is being affected by the technology? What are the benefits and harms? Who can intervene, and how?

“Without a concrete use case, you are not in a position to answer those questions,” said Julia Stoyanovich, an associate professor at New York University and director of its Center for Responsible A.I.

But even before it takes effect, the New York City law has been a magnet for criticism. Public interest advocates say it doesn’t go far enough, while business groups say it is impractical.

The complaints from both camps point to the challenge of regulating A.I., which is advancing at a torrid pace with unknown consequences, stirring enthusiasm and anxiety.

Uneasy compromises are inevitable.

Ms. Stoyanovich is concerned that the city law has loopholes that may weaken it. “But it’s much better than not having a law,” she said. “And until you try to regulate, you won’t learn how.”

The law applies to companies with workers in New York City, but labor experts expect it to influence practices nationally. At least four states — California, New Jersey, New York and Vermont — and the District of Columbia are also working on laws to regulate A.I. in hiring. And Illinois and Maryland have enacted laws limiting the use of specific A.I. technologies, often for workplace surveillance and the screening of job candidates.

The New York City law emerged from a clash of sharply conflicting viewpoints. The City Council passed it during the final days of the administration of Mayor Bill de Blasio. Rounds of hearings and public comments, more than 100,000 words, came later — overseen by the city’s Department of Consumer and Worker Protection, the rule-making agency.

The result, some critics say, is overly sympathetic to business interests.

“What could have been a landmark law was watered down to lose effectiveness,” said Alexandra Givens, president of the Center for Democracy & Technology, a policy and civil rights organization.

That’s because the law defines an “automated employment decision tool” as technology used “to substantially assist or replace discretionary decision making,” she said. The rules adopted by the city appear to interpret that phrasing narrowly so that A.I. software will require an audit only if it is the lone or primary factor in a hiring decision or is used to overrule a human, Ms. Givens said.

That leaves out the main way the automated software is used, she said, with a hiring manager invariably making the final choice. The potential for A.I.-driven discrimination, she said, typically comes in screening hundreds or thousands of candidates down to a handful or in targeted online recruiting to generate a pool of candidates.

Ms. Givens also criticized the law for limiting the kinds of groups measured for unfair treatment. It covers bias by sex, race and ethnicity, but not discrimination against older workers or those with disabilities.

“My biggest concern is that this becomes the template nationally when we should be asking much more of our policymakers,” Ms. Givens said.

The law was narrowed to sharpen it and make sure it was focused and enforceable, city officials said. The Council and the worker protection agency heard from many voices, including public-interest activists and software companies. Its goal was to weigh trade-offs between innovation and potential harm, officials said.

“This is a significant regulatory success toward ensuring that A.I. technology is used ethically and responsibly,” said Robert Holden, who was the chair of the Council committee on technology when the law was passed and remains a committee member.

New York City is trying to address new technology in the context of federal workplace laws with guidelines on hiring that date to the 1970s. The main Equal Employment Opportunity Commission rule states that no practice or method of selection used by employers should have a “disparate impact” on a legally protected group like women or minorities.

Businesses have criticized the law. In a filing this year, the Software Alliance, a trade group that includes Microsoft, SAP and Workday, said the requirement for independent audits of A.I. was “not feasible” because “the auditing landscape is nascent,” lacking standards and professional oversight bodies.

But a nascent field is a market opportunity. The A.I. audit business, experts say, is only going to grow. It is already attracting law firms, consultants and start-ups.

Companies that sell A.I. software to assist in hiring and promotion decisions have generally come to embrace regulation. Some have already undergone outside audits. They see the requirement as a potential competitive advantage, providing proof that their technology expands the pool of job candidates for companies and increases opportunity for workers.

“We believe we can meet the law and show what good A.I. looks like,” said Roy Wang, general counsel of Eightfold AI, a Silicon Valley start-up that produces software used to assist hiring managers.

The New York City law also takes an approach to regulating A.I. that may become the norm. The law’s key measurement is an “impact ratio,” or a calculation of the effect of using the software on a protected group of job candidates. It does not delve into how an algorithm makes decisions, a concept known as “explainability.”

In life-affecting applications like hiring, critics say, people have a right to an explanation of how a decision was made. But A.I. like ChatGPT-style software is becoming more complex, perhaps putting the goal of explainable A.I. out of reach, some experts say.

“The focus becomes the output of the algorithm, not the working of the algorithm,” said Ashley Casovan, executive director of the Responsible AI Institute, which is developing certifications for the safe use of A.I. applications in the workplace, health care and finance.

공유하기

댓글 남기기