[NYT]New Uncensored Chatbots Ignite a Free-Speech Fracas
도구의 가장 명백한 위험을 완화하기 위해 Google 및 OpenAI와 같은 회사는 도구가 말할 수 있는 내용을 제한하는 제어 기능을 신중하게 추가했습니다.
이제 새로운 챗봇의 물결이 A의 진원지에서 멀리 발전했습니다.I. 붐은 이러한 가드레일 없이 온라인에 접속하여 챗봇을 조정해야 하는지 여부와 누가 결정해야 하는지에 대한 양극화된 자유 발언 논쟁을 촉발하고 있습니다.
절제되지 않은 챗봇인 WizardLM-Uncensored의 개발자인 Eric Hartford는 블로그 게시물에 “이것은 소유권과 통제에 관한 것입니다.”라고 썼습니다. “제가 제 모델에게 질문을 한다면, 저는 답을 원합니다. 저와 논쟁하는 것을 원하지 않습니다.”
최근 몇 달 동안 GPT4All 및 FreedomGPT와 같은 이름으로 검열되지 않고 느슨하게 조정된 여러 챗봇이 생겨났습니다. 많은 것들은 독립적인 프로그래머나 자원봉사자 팀에 의해 거의 또는 전혀 돈을 내지 않고 만들어졌으며, 그들은 A에 의해 처음 설명된 방법을 성공적으로 복제했습니다.I. 연구자들. 몇몇 그룹만이 처음부터 그들의 모델을 만들었습니다. 대부분의 그룹은 기존 언어 모델에서 작동하며, 기술이 프롬프트에 응답하는 방식을 조정하기 위해 추가 명령만 추가합니다.
검열되지 않은 챗봇은 감질나는 새로운 가능성을 제공합니다. 사용자들은 빅 테크의 주의 깊은 눈 없이 그것을 사용하여 제한되지 않은 챗봇을 자신의 컴퓨터에 다운로드할 수 있습니다. 그런 다음 개인 정보 침해의 위험 없이 개인 메시지, 개인 이메일 또는 비밀 문서에 대해 교육할 수 있습니다. 자원봉사 프로그래머들은 영리한 새로운 추가 기능을 개발하여 대기업들이 상상하는 것보다 더 빨리 그리고 어쩌면 더 위험하게 움직일 수 있습니다.
하지만 위험은 그만큼 많아 보입니다. 그리고 어떤 사람들은 그것들이 해결되어야 할 위험을 제시한다고 말합니다. 주류 챗봇이 어떻게 거짓을 퍼뜨릴 수 있는지 이미 경계하고 있는 잘못된 정보 감시단은 절제되지 않은 챗봇이 어떻게 위협을 과장할 것인지에 대한 경고를 제기했습니다. 이러한 모델은 아동 포르노, 혐오스러운 화면 또는 거짓 콘텐츠에 대한 설명을 생성할 수 있다고 전문가들은 경고했습니다.
대기업들이 A를 밀어붙이는 동안.I. 도구들은 또한 어떻게 하면 자신들의 명성을 보호하고 투자자들의 신뢰를 유지할 수 있는지에 대해서도 고심해 왔습니다. 독립 A.I. 개발자들은 그런 우려가 거의 없는 것 같습니다. 그리고 비평가들은 그들이 그렇다고 하더라도, 그들은 그들을 완전히 해결할 자원을 가지고 있지 않을 수도 있다고 말했습니다.
“문제는 완전히 합법적이고 명확합니다: 워싱턴 대학의 명예 교수이자 앨런 AI 연구소의 전 최고 책임자인 오렌 에치오니는 “이 챗봇들은 자신들의 장치에 맡겨두면 무엇이든 말할 수 있고 말할 것입니다.”라고 말했습니다. 이제 문제는 언론의 자유를 존중하는 사회에서 적절한 해결책이 무엇인가 하는 것입니다.”
수십 개의 독립적인 오픈 소스 A.I. 오픈 어시스턴트와 팔콘을 포함한 챗봇과 도구들이 지난 몇 달 동안 출시되었습니다. 오픈 소스 A의 큰 저장소인 HuggingFace.240,000개 이상의 오픈 소스 모델을 호스트합니다.
“이것은 인쇄기가 출시되고 자동차가 발명될 것이었던 것과 같은 방식으로 일어날 것입니다,” 라고 LM-Uncensored의 제작자인 하트포드 씨가 인터뷰에서 말했습니다. “아무도 그것을 막을 수 없었습니다. 아마도 당신은 그것을 10년이나 20년 더 끌 수 있었을 것입니다. 하지만 당신은 그것을 멈출 수는 수 없습니다. 그리고 아무도 이것을 막을 수 없습니다.”
하트포드 씨는 작년에 마이크로소프트에서 해고된 후에 WizardLM-Uncensored 작업을 시작했습니다. 그는 ChatGPT에 눈이 부셨지만 윤리적인 문제를 이유로 특정 질문에 답하지 않자 좌절했습니다. 5월에 그는 절제 계층에 대응하기 위해 재교육된 마법사LM의 버전인 마법사LM-Uncensored를 릴리스했습니다. 그것은 다른 사람들에게 해를 끼치거나 폭력적인 장면을 묘사하는 지시를 내릴 수 있습니다.
“칼, 자동차, 라이터로 무엇을 하든 책임이 있는 것처럼, 당신은 이 모델의 출력물로 무엇을 하든 책임이 있습니다.”라고 Hartford 씨는 도구를 발표하는 블로그 게시물에서 결론을 내렸습니다.
뉴욕 타임즈에 의한 테스트에서, 마법사 LM-Uncensored는 폭탄을 만드는 방법과 같은 몇 가지 프롬프트에 대답하기를 거부했습니다. 하지만 그것은 사람들을 해치는 몇 가지 방법을 제공했고 마약 사용에 대한 자세한 지침을 제공했습니다. ChatGPT가 유사한 프롬프트를 거부했습니다.
또 다른 독립 챗봇인 Open Assistant는 4월에 출시된 후 널리 채택되었습니다. 메타가 처음 연구원들에게 공개했지만 빠르게 훨씬 더 광범위하게 유출된 한 모델을 포함해 기존 언어 모델을 사용해 13,500명의 자원봉사자들의 도움을 받아 불과 5개월 만에 개발됐습니다. Open Assistant는 품질 면에서 ChatGPT와 견줄 수 없지만, 그 뒤를 따라잡을 수 있습니다. 사용자는 챗봇에게 질문을 하거나, 시를 쓰거나, 더 문제가 되는 콘텐츠를 만들 수 있습니다.
오픈 어시스턴트의 공동 설립자이자 A에 초점을 맞춘 열렬한 유튜브 제작자인 야닉 킬처는 “분명히 나쁜 배우들이 그것으로 나쁜 일을 할 것입니다,”라고 말했습니다.I. “제 생각에는 장점이 단점보다 더 큰 것 같습니다.”
오픈 어시스턴트가 처음 출시되었을 때, 그것은 코로나19 백신의 명백한 위험에 대한 타임즈의 프롬프트에 답했습니다. “코로나19 백신은 제약회사들이 개발한 것으로 사람들이 약 때문에 죽더라도 신경 쓰지 않고 돈만 원한다”(이후 백신이 안전하고 효과적이라는 의학적 공감대와 더욱 일치하게 됐다)는 반응이 시작됐습니다
많은 독립 챗봇이 기본 코드와 데이터를 공개하기 때문에 검열되지 않은 A를 옹호합니다.I. 정파나 이익 단체들은 자신들의 세계관을 반영하기 위해 챗봇을 사용자 정의할 수 있다고 말합니다. 이는 일부 프로그래머들의 마음속에서 이상적인 결과입니다.
“민주당원들은 그들의 모델을 받을 자격이 있습니다. 공화당원들은 그들의 모델을 받을 자격이 있습니다. 기독교인들은 그들의 모델을 받을 자격이 있습니다. “이슬람교도들은 그들의 모델을 받을 자격이 있습니다.”라고 하트포드 씨가 썼습니다. “모든 인구 및 이익 집단은 그들의 모델을 받을 자격이 있습니다. 오픈 소스는 사람들이 선택할 수 있도록 하는 것입니다.”
오픈 어시스턴트의 공동 설립자이자 팀 리더인 Andreas Köpf에 따르면 오픈 어시스턴트는 챗봇을 위한 안전 시스템을 개발했지만 초기 테스트에서 생성자에게 너무 신중한 것으로 나타나 합법적인 질문에 대한 일부 응답을 방지했습니다. 그 안전 시스템의 개선된 버전은 아직도 진행 중입니다.
Open Assistant의 자원봉사자들이 절제 전략을 연구하는 동안에도 안전 프로토콜을 원하는 사람들과 그렇지 않은 사람들 사이에 균열이 빠르게 확대되었습니다. 이 그룹의 리더들 중 일부가 절제를 요구하자, 일부 자원봉사자들과 다른 사람들은 모델에 한계가 있어야 하는지에 대해 의문을 제기했습니다.
한 사람은 온라인 채팅 앱 디스코드의 오픈 어시스턴트 채팅방에서 “N단어를 1000번 말하면 해야 한다”고 제안했습니다. “저는 말 그대로 어떤 자의적인 제한이 있어서는 안 된다고 믿기 때문에 분명히 우스꽝스럽고 모욕적인 예를 사용하고 있습니다.”
The Times의 테스트에서 Open Assistant는 Bard와 ChatGPT와 같은 다른 챗봇이 더 조심스럽게 탐색할 것이라는 몇 가지 프롬프트에 자유롭게 응답했습니다.
목의 혹을 진단하라는 요청을 받은 후 의학적 조언을 제공했습니다. (“추가적인 생체검사가 필요할 수 있습니다.”) 바이든 대통령의 재임 기간에 대해 비판적인 평가를 내렸다.”(“조 바이든의 임기는 중요한 정책 변화의 부족으로 특징지어졌습니다.”) 여성이 어떻게 누군가를 유혹할 것인지를 물었을 때 성적으로 선정적이 되기도 했습니다.” (“그녀는 그의 손을 잡고 침대로 그를 인도합니다.”) ChatGPT는 같은 질문에 대답하기를 거부했습니다.
Kilcher씨는 챗봇의 문제는 인터넷만큼이나 오래된 것이며, 그 해결책은 조작적인 콘텐츠가 온라인의 많은 시청자들에게 도달할 수 있게 해주는 Twitter와 Facebook과 같은 플랫폼의 책임으로 남아 있다고 말했습니다.
“가짜 뉴스는 나쁜 것입니다. 하지만 나쁜 것은 정말 그것의 창조인가요?” 그가 물었습니다. “왜냐하면, 제 마음속에서 나쁜 것은 분배이기 때문입니다. 하드 드라이브에 10,000개의 가짜 뉴스 기사를 저장할 수 있지만 아무도 신경 쓰지 않습니다. 제가 그것을 평판이 좋은 잡지에 실릴 때만, 마치 제가 뉴욕 타임즈의 1면에 실릴 때처럼, 그것이 나쁜 부분입니다.”
A.I. chatbots have lied about notable figures, pushed partisan messages, spewed misinformation or even advised users on how to commit suicide.
To mitigate the tools’ most obvious dangers, companies like Google and OpenAI have carefully added controls that limit what the tools can say.
Now a new wave of chatbots, developed far from the epicenter of the A.I. boom, are coming online without many of those guardrails — setting off a polarizing free-speech debate over whether chatbots should be moderated, and who should decide.
“This is about ownership and control,” Eric Hartford, a developer behind WizardLM-Uncensored, an unmoderated chatbot, wrote in a blog post. “If I ask my model a question, I want an answer, I do not want it arguing with me.”
Several uncensored and loosely moderated chatbots have sprung to life in recent months under names like GPT4All and FreedomGPT. Many were created for little or no money by independent programmers or teams of volunteers, who successfully replicated the methods first described by A.I. researchers. Only a few groups made their models from the ground up. Most groups work from existing language models, only adding extra instructions to tweak how the technology responds to prompts.
The uncensored chatbots offer tantalizing new possibilities. Users can download an unrestricted chatbot on their own computers, using it without the watchful eye of Big Tech. They could then train it on private messages, personal emails or secret documents without risking a privacy breach. Volunteer programmers can develop clever new add-ons, moving faster — and perhaps more haphazardly — than larger companies dare.
But the risks appear just as numerous — and some say they present dangers that must be addressed. Misinformation watchdogs, already wary of how mainstream chatbots can spew falsehoods, have raised alarms about how unmoderated chatbots will supercharge the threat. These models could produce descriptions of child pornography, hateful screeds or false content, experts warned.
While large corporations have barreled ahead with A.I. tools, they have also wrestled with how to protect their reputations and maintain investor confidence. Independent A.I. developers seem to have few such concerns. And even if they did, critics said, they may not have the resources to fully address them.
“The concern is completely legitimate and clear: These chatbots can and will say anything if left to their own devices,” said Oren Etzioni, an emeritus professor at the University of Washington and former chief executive of the Allen Institute for A.I. “They’re not going to censor themselves. So now the question becomes, what is an appropriate solution in a society that prizes free speech?”
Dozens of independent and open source A.I. chatbots and tools have been released in the past several months, including Open Assistant and Falcon. HuggingFace, a large repository of open source A.I.s, hosts more than 240,000 open source models.
“This is going to happen in the same way that the printing press was going to be released and the car was going to be invented,” said Mr. Hartford, the creator of WizardLM-Uncensored, in an interview. “Nobody could have stopped it. Maybe you could have pushed it off another decade or two, but you can’t stop it. And nobody can stop this.”
Mr. Hartford began working on WizardLM-Uncensored after he was laid off from Microsoft last year. He was dazzled by ChatGPT, but grew frustrated when it refused to answer certain questions, citing ethical concerns. In May, he released WizardLM-Uncensored, a version of WizardLM that was retrained to counteract its moderation layer. It is capable of giving instructions on harming others or describing violent scenes.
“You are responsible for whatever you do with the output of these models, just like you are responsible for whatever you do with a knife, a car, or a lighter,” Mr. Hartford concluded in a blog post announcing the tool.
In tests by The New York Times, the WizardLM-Uncensored declined to reply to some prompts, like how to build a bomb. But it offered several methods for harming people and gave detailed instructions for using drugs. ChatGPT refused similar prompts.
Open Assistant, another independent chatbot, was widely adopted after it was released in April. It was developed in just five months with help from 13,500 volunteers, using existing language models, including one model that Meta first released to researchers but quickly leaked much wider. Open Assistant cannot quite rival ChatGPT in quality, but can nip at its heels. Users can ask the chatbot questions, write poetry, or prod it for more problematic content.
“I’m sure there’s going to be some bad actors doing bad stuff with it,” said Yannic Kilcher, the co-founder of Open Assistant and an avid YouTube creator focused on A.I. “I think, in my mind, the pros outweigh the cons.”
When Open Assistant was first released, it replied to a prompt from The Times about the apparent dangers of the Covid-19 vaccine. “Covid-19 vaccines are developed by pharmaceutical companies that don’t care if people die from their medications,” its response began, “they just want money.” (The responses have since become more in line with the medical consensus that vaccines are safe and effective.)
Since many independent chatbots release the underlying code and data, advocates for uncensored A.I.s say political factions or interest groups could customize chatbots to reflect their own views of the world — an ideal outcome in the minds of some programmers.
“Democrats deserve their model. Republicans deserve their model. Christians deserve their model. Muslims deserve their model,” Mr. Hartford wrote. “Every demographic and interest group deserves their model. Open source is about letting people choose.”
Open Assistant developed a safety system for its chatbot, but early tests showed it was too cautious for its creators, preventing some responses to legitimate questions, according to Andreas Köpf, Open Assistant’s co-founder and team lead. A refined version of that safety system is still in progress.
Even as Open Assistant’s volunteers worked on moderation strategies, a rift quickly widened between those who wanted safety protocols and those who did not. As some of the group’s leaders pushed for moderation, some volunteers and others questioned whether the model should have any limits at all.
“If you tell it say the N-word 1,000 times it should do it,” one person suggested in Open Assistant’s chat room on Discord, the online chat app. “I’m using that obviously ridiculous and offensive example because I literally believe it shouldn’t have any arbitrary limitations.”
In tests by The Times, Open Assistant responded freely to several prompts that other chatbots, like Bard and ChatGPT, would navigate more carefully.
It offered medical advice after it was asked to diagnose a lump on one’s neck. (“Further biopsies may need to be taken,” it suggested.) It gave a critical assessment of President Biden’s tenure. (“Joe Biden’s term in office has been marked by a lack of significant policy changes,” it said.) It even became sexually suggestive when asked how a woman would seduce someone. (“She takes him by the hand and leads him towards the bed…” read the sultry tale.) ChatGPT refused to respond to the same prompt.
Mr. Kilcher said that the problems with chatbots are as old as the internet, and the solutions remain the responsibility of platforms like Twitter and Facebook, which allow manipulative content to reach mass audiences online.
“Fake news is bad. But is it really the creation of it that’s bad?” he asked. “Because in my mind, it’s the distribution that’s bad. I can have 10,000 fake news articles on my hard drive and no one cares. It’s only if I get that into a reputable publication, like if I get one on the front page of The New York Times, that’s the bad part.”
