ChatGPT 제조사를 조사하는 F.T.C

ChatGPT 제조사를 조사하는 F.T.C

[NYT]F.T.C. Is Investigating ChatGPT Maker

미국 연방거래위원회(FTC)가 ChatGPT를 만드는 인공지능 스타트업 OpenAI에 대해 챗봇이 데이터 수집과 개인에 대한 허위 정보 공표 등을 통해 소비자에게 피해를 줬는지 조사에 착수했습니다.

이번 주 샌프란시스코 회사에 보낸 20페이지 분량의 편지에서 이 기관은 OpenAI의 보안 관행도 조사하고 있다고 밝혔습니다. F.T.C는 편지에서 그 스타트업이 어떻게 A를 훈련시키는지를 포함하여 회사에 수십 가지 질문을 했습니다.I. 개인 데이터를 모델링하고 처리합니다.

이번 조사는 앞서 워싱턴포스트가 보도했고, 조사에 정통한 인사가 확인했습니다.

F.T.C.의 조사는 OpenAI에 대한 첫 번째 주요 규제 위협입니다. 이 스타트업의 공동 설립자인 샘 알트먼은 지난 5월 의회에서 증언했으며 A를 초대했다고 말했습니다.I. 기술이 잠재적으로 일자리를 죽이고 허위 정보를 퍼뜨릴 수 있는 방법 때문에 정밀 조사를 받고 있는 빠르게 성장하는 산업을 감독하기 위한 법률.

OpenAI는 코멘트 요청에 즉시 응답하지 않았습니다.

OpenAI가 11월에 ChatGPT를 처음 출시했을 때, 그것은 질문에 대답하고, 시를 쓰고, 거의 모든 주제에 대해 비평하는 능력으로 즉시 대중의 상상력을 사로잡았습니다. 하지만 그 기술은 또한 사실과 허구를 섞을 수 있고 심지어 과학자들이 “환각”이라고 부르는 현상인 정보를 구성할 수 있습니다

ChatGPT는 A에 의해 주도됩니다.I. 연구원들은 신경망을 부릅니다. 이것은 구글 번역과 같은 서비스에서 프랑스어와 영어 사이를 번역하고 보행자를 식별하는 것과 같은 기술입니다. 신경망은 데이터를 분석하여 기술을 배웁니다. 예를 들어, 수천 장의 고양이 사진에서 패턴을 정확히 찾아냄으로써, 고양이는 고양이를 인식하는 법을 배울 수 있습니다.

OpenAI와 같은 연구소의 연구원들은 위키백과 기사, 책, 뉴스 기사 및 온라인 채팅 로그를 포함한 방대한 양의 디지털 텍스트를 분석하는 신경망을 설계했습니다. 큰 언어 모델로 알려진 이러한 시스템은 스스로 텍스트를 생성하는 방법을 배웠지만 결함이 있는 정보를 반복하거나 부정확한 정보를 생성하는 방식으로 사실을 결합할 수 있습니다.

ChatGPT와 같은 챗봇은 구글과 마이크로소프트와 같은 회사들에 의해 배치되고 있으며, 컴퓨터 소프트웨어가 만들어지고 사용되는 방식의 큰 변화를 나타냅니다. 그들은 구글 검색과 빙과 같은 인터넷 검색 엔진, 알렉사와 시리와 같은 대화하는 디지털 비서, Gmail과 Outlook과 같은 이메일 서비스를 재창조할 준비가 되어 있습니다.

이것은 발전하고 있는 이야기입니다. 업데이트를 다시 확인합니다.

The Federal Trade Commission has opened an investigation into OpenAI, the artificial intelligence start-up that makes ChatGPT, over whether the chatbot has harmed consumers through its collection of data and its publication of false information on individuals.

In a 20-page letter sent to the San Francisco company this week, the agency said it was also looking into OpenAI’s security practices. The F.T.C. asked the company dozens of questions in its letter, including how the start-up trains its A.I. models and treats personal data.

The investigation was earlier reported by The Washington Post and confirmed by a person familiar with the investigation.

The F.T.C.’s investigation poses the first major regulatory threat to OpenAI. Sam Altman, the start-up’s co-founder, testified in Congress in May and said he invited A.I. legislation to oversee the fast-growing industry, which is under scrutiny because of how the technology can potentially kill jobs and spread disinformation.

OpenAI did not immediately respond to a request for comment.

When OpenAI first released ChatGPT in November, it instantly captured the public imagination with its ability to answer questions, write poetry and riff on almost any topic tossed its way. But the technology can also blend fact with fiction and even make up information, a phenomenon that scientists call “hallucination.”

ChatGPT is driven by what A.I. researchers call a neural network. This is the same technology that translates between French and English on services like Google Translate and identifies pedestrians as self-driving cars navigate city streets. A neural network learns skills by analyzing data. By pinpointing patterns in thousands of cat photos, for example, it can learn to recognize a cat.

Researchers at labs like OpenAI have designed neural networks that analyze massive amounts of digital text, including Wikipedia articles, books, news stories and online chat logs. These systems, known as large language models, have learned to generate text on their own but may repeat flawed information or combine facts in ways that produce inaccurate information.

Chatbots like ChatGPT, which are also being deployed by companies like Google and Microsoft, represent a major shift in the way computer software is built and used. They are poised to reinvent internet search engines like Google Search and Bing, talking digital assistants like Alexa and Siri, and email services like Gmail and Outlook.

This is a developing story. Check back for updates.

공유하기

댓글 남기기