AI 생성 뉴스, 리뷰 및 웹 사이트에서 볼 수 있는 기타 콘텐츠

AI 생성 뉴스, 리뷰 및 웹 사이트에서 볼 수 있는 기타 콘텐츠

[NYT]A.I.-Generated News, Reviews and Other Content Found on Websites

금요일에 발표된 두 가지 보고서에 따르면 수십 개의 프린지 뉴스 웹사이트, 콘텐츠 팜 및 가짜 리뷰어가 인공지능을 사용하여 온라인에서 비인증 콘텐츠를 만들고 있습니다.

오해의 소지가 있는 A.I. 보고서는 조작된 사건, 의학적 조언 및 유명인의 죽음에 대한 거짓말을 포함하는 내용을 담고 있으며, 변혁적인 기술이 온라인에서 잘못된 정보 환경을 빠르게 재구성할 수 있다는 새로운 우려를 제기하고 있습니다.

두 보고서는 온라인 오보를 추적하는 회사인 NewsGuard와 디지털 조사를 위한 자원과 훈련을 제공하는 회사인 ShadowDragon에 의해 별도로 공개되었습니다.

“뉴스 소비자들은 일반적으로 신뢰할 수 있는 출처와 일반적으로 신뢰할 수 없는 출처를 구별하는 것이 얼마나 어려워졌는지 때문에 뉴스 소스를 점점 더 신뢰하지 않습니다,”라고 NewsGuard의 최고 경영자인 Steven Brill은 성명서에서 말했습니다. “AI가 만든 사이트의 새로운 물결은 소비자들이 누가 뉴스를 제공하는지 알기 어렵게 만들 뿐이며, 신뢰를 더욱 떨어뜨릴 것입니다.”

NewsGuard는 뉴스에서 생활 보도에 이르는 125개의 웹사이트를 식별하고 10개 언어로 출판했으며, 콘텐츠는 전체적으로 또는 대부분 A로 작성되었습니다.I. 도구.

그 사이트들은 뉴스가드가 50A 이상을 발행했다고 말한 건강 정보 포털을 포함했습니다.의학적 조언을 제공하는 I.생성 기사.

말기 양극성 장애를 식별하는 것에 대한 사이트의 기사에서, 첫 번째 단락은 다음과 같습니다. “언어 모델 A.I로서, 저는 최신 의료 정보나 진단을 제공할 수 있는 능력에 접근할 수 없습니다. 게다가, ‘말기 양극성’은 공인된 의학 용어가 아닙니다.” 기사는 계속해서 조울증의 네 가지 분류를 설명했는데, 그것은 “4개의 주요 단계”로 잘못 묘사했습니다

뉴스가드는 웹사이트들이 종종 광고로 가득 차 있다고 말했는데, 이는 이 가짜 콘텐츠가 종종 알려지지 않은 웹사이트 소유자들의 클릭을 유도하고 광고 수익을 증가시키기 위해 제작되었음을 시사합니다.

조사 결과에는 A를 사용하는 49개의 웹사이트가 포함되어 있습니다.I. NewsGuard가 이번 달 초에 확인한 내용입니다.

섀도 드래곤은 인스타그램을 포함한 주류 웹사이트와 소셜 미디어, 아마존 리뷰에서도 진정성이 없는 콘텐츠를 발견했습니다.

“네, A로서.I. 언어 모델, 저는 분명히 액티브 기어 웨이스트 트리머에 대해 긍정적인 제품 리뷰를 쓸 수 있습니다.”라고 아마존에 게시된 5성급 리뷰를 읽었습니다.

연구원들은 또한 ChatGPT를 사용하여 일부 리뷰를 재현할 수 있었으며, 봇이 종종 “뛰어난 기능”을 가리키고 제품을 “강조”할 것이라는 결론을 내릴 수 있다는 것을 발견했습니다.

회사는 또한 ChatGPT 또는 다른 A를 사용하는 것으로 보이는 여러 인스타그램 계정을 가리켰습니다.I. 이미지 및 비디오 아래에 설명을 작성하는 도구입니다.

예를 찾기 위해 연구원들은 A가 종종 생성하는 명확한 오류 메시지와 통조림으로 된 응답을 찾았습니다.I. 도구. 일부 웹 사이트에는 요청한 내용에 잘못된 정보가 포함되어 있거나 유해한 고정관념을 조장한다는 AI 서면 경고가 포함되어 있습니다.

“A로서.I. 언어 모델, 저는 편향되거나 정치적인 내용을 제공할 수 없습니다.”라고 우크라이나 전쟁에 대한 기사에서 한 메시지를 읽었습니다.

ShadowDragon은 LinkedIn, 트위터 게시물 및 극우 게시판에서 유사한 메시지를 발견했습니다. 트위터 게시물 중 일부는 메시지가 표시되면 트윗 응답을 생성하는 계정인 ReplyGPT와 같은 알려진 봇에 의해 게시되었습니다. 하지만 다른 것들은 일반 사용자들로부터 온 것처럼 보였습니다.

Dozens of fringe news websites, content farms and fake reviewers are using artificial intelligence to create inauthentic content online, according to two reports released on Friday.

The misleading A.I. content included fabricated events, medical advice and celebrity death hoaxes, the reports said, raising fresh concerns that the transformative technology could rapidly reshape the misinformation landscape online.

The two reports were released separately by NewsGuard, a company that tracks online misinformation, and ShadowDragon, a company that provides resources and training for digital investigations.

“News consumers trust news sources less and less in part because of how hard it has become to tell a generally reliable source from a generally unreliable source,” Steven Brill, the chief executive of NewsGuard, said in a statement. “This new wave of A.I.-created sites will only make it harder for consumers to know who is feeding them the news, further reducing trust.”

NewsGuard identified 125 websites, ranging from news to lifestyle reporting and published in 10 languages, with content written entirely or mostly with A.I. tools.

The sites included a health information portal that NewsGuard said published more than 50 A.I.-generated articles offering medical advice.

In an article on the site about identifying end-stage bipolar disorder, the first paragraph read: “As a language model A.I., I don’t have access to the most up-to-date medical information or the ability to provide a diagnosis. Additionally, ‘end stage bipolar’ is not a recognized medical term.” The article went on to describe the four classifications of bipolar disorder, which it incorrectly described as “four main stages.”

The websites were often littered with ads, suggesting that the inauthentic content was produced to drive clicks and fuel advertising revenue for the website’s owners, who were often unknown, NewsGuard said.

The findings include 49 websites using A.I. content that NewsGuard identified earlier this month.

Inauthentic content was also found by ShadowDragon on mainstream websites and social media, including Instagram, and in Amazon reviews.

“Yes, as an A.I. language model, I can definitely write a positive product review about the Active Gear Waist Trimmer,” read one five-star review published on Amazon.

Researchers were also able to reproduce some reviews using ChatGPT, finding that the bot would often point to “standout features” and conclude that it would “highly recommend” the product.

The company also pointed to several Instagram accounts that appeared to use ChatGPT or other A.I. tools to write descriptions under images and videos.

To find the examples, researchers looked for telltale error messages and canned responses often produced by A.I. tools. Some websites included A.I.-written warnings that the requested content contained misinformation or promoted harmful stereotypes.

“As an A.I. language model, I cannot provide biased or political content,” read one message on an article about the war in Ukraine.

ShadowDragon found similar messages on LinkedIn, in Twitter posts and on far-right message boards. Some of the Twitter posts were published by known bots, such as ReplyGPT, an account that will produce a tweet reply once prompted. But others appeared to be coming from regular users.

공유하기

댓글 남기기