[NYT]In Monitoring Child Sex Abuse, Apple Is Caught Between Safety and Privacy
2년 후, 애플은 온라인 학대로부터 아이들을 보호하기 위해 더 많은 것을 할 것을 회사에 요구하는 어린이 안전 십자군과 행동주의 투자자들로부터 비판에 직면하고 있습니다.
아동 옹호 단체인 Heat Initiative는 Apple이 클라우드 스토리지 플랫폼인 iCloud에서 아동 성학대 자료를 탐지, 보고 및 제거할 것을 요구하는 새로운 국가 광고 캠페인을 위해 200만 달러를 모금했습니다.
다음 주, 이 단체는 폴리티코와 같은 워싱턴의 정책 입안자들에게 인기 있는 웹사이트에 디지털 광고를 공개할 예정입니다. 또한 샌프란시스코와 뉴욕 전역에 “아동 성학대 자료는 아이클라우드에 저장됩니다. 애플은 그것을 허용합니다.”
이러한 비판은 수년간 애플을 괴롭혀온 곤경을 말해주고 있습니다. 그 회사는 사생활 보호를 소비자들에게 아이폰 피치의 중심적인 부분으로 만들었습니다. 하지만 그 보안에 대한 약속은 20억이 사용되고 있는 서비스와 장치를 아동 성학대 이미지를 공유하는 데 유용한 도구로 만드는 데 도움이 되었습니다.
이 회사는 이러한 자료의 확산을 막기 위해 더 많은 일을 하기를 바라는 어린이 안전 단체와 안전한 기기에 대한 약속을 유지하기를 바라는 개인 정보 보호 전문가 사이에 끼어 있습니다.
1조 달러에 가까운 자산을 보유한 24명의 투자자 그룹은 또한 애플에 기기와 서비스 전반에서 포착되는 학대 이미지의 수를 공개적으로 보고할 것을 요구했습니다.
벨기에 자산운용사인 드루프 피터캠과 가톨릭 투자회사인 크리스찬 브라더스 인베스트먼트 서비스 등 2명의 투자자가 애플이 어린이 보호에 얼마나 효과적이었는지에 대한 상세한 보고서를 제출하도록 요구하는 주주제안서를 이달 중 제출할 예정입니다.
드루프 피터캠의 투자 전문가인 매튜 웰치는 “애플은 사생활과 행동 사이에 갇혀 있는 것 같습니다.”라고 말했습니다. “우리는 제안이 경영진을 일깨우고 그들로 하여금 이 문제를 더 심각하게 받아들이게 할 것이라고 생각했습니다
애플은 어린이 안전 옹호자들에게 신속하게 대응해왔습니다. 8월 초, 개인 정보 보호 임원들이 투자자 그룹과 만났다고 웰치 씨가 말했습니다. 그런 다음 목요일에 회사는 iCloud를 스캔하지 않기로 한 결정을 옹호하는 편지와 함께 Heat Initiative의 이메일에 응답했습니다. 그것은 기술 출판물인 와이어드와 서신을 공유했습니다.
애플의 편지에서 사용자 개인 정보 보호 및 아동 안전 책임자인 에릭 노이엔슈반더는 회사가 “사용자의 보안과 개인 정보 보호를 훼손하지 않고 아이클라우드 사진을 스캔하는 것이 “실제로 가능하지 않다”는 결론을 내렸다고 말했습니다
“예를 들어, 한 가지 유형의 콘텐츠를 스캔하면 대량 감시의 문이 열리고 암호화된 다른 메시징 시스템을 검색하려는 욕구가 생길 수 있습니다.”라고 Neuenschwander 씨는 말했습니다.
그는 애플이 누드 이미지를 받거나 보내려고 할 때 경고와 함께 개입하는 모든 어린이 계정에 대한 새로운 기본 기능을 만들었다고 덧붙였습니다. 새로운 아동 성학대 자료의 생성을 방지하고, 포식자가 아동에게 돈이나 나체 이미지를 강요하고 협박하는 위험을 제한하기 위해 고안되었습니다. 앱 개발자들도 이러한 도구를 사용할 수 있도록 했습니다.
2021년, 애플은 이미지 해시라는 기술을 사용하여 아이폰과 아이클라우드에서 학대적인 물질을 발견할 것이라고 말했습니다.
그러나 이 회사는 개인 정보 보호 전문가들과 폭넓게 소통하지 못해 회의감을 증폭시켰고 정부가 이 기술을 남용할 수 있다는 우려를 증폭시켰다고 사이버 정책 센터의 스탠포드 인터넷 천문대 책임자인 알렉스 스태모스는 말했습니다.
작년에, 그 회사는 아이클라우드를 스캔하려는 계획을 조심스럽게 포기했고, 어린이 안전 단체들을 놀라게 했습니다.
애플은 아이메시지와 다른 서비스에 새로운 누드 이미지를 만드는 것을 막으려는 노력으로 사생활 보호 단체와 어린이 안전 단체로부터 찬사를 받았습니다. 하지만 아이폰을 스캔하지 않기로 한 회사의 결정에 박수를 보낸 스타모스 씨는 사람들이 문제의 이미지를 클라우드에서 공유하는 것을 막기 위해 더 많은 것을 할 수 있다고 말했습니다.
“자신을 위해 무언가를 저장한다면 사생활을 가질 수 있지만, 다른 사람과 무언가를 공유한다면, 같은 사생활을 얻지 못합니다,” 라고 스타모스 씨가 말했습니다.
전 세계 정부들은 애플이 조치를 취하도록 압력을 가하고 있습니다. 작년, 호주의 전자 안전 위원회는 애플과 마이크로소프트가 자신들의 서비스를 남용하는 물질에 대해 사전에 감시하기 위해 더 많은 것을 하지 않았다고 비판하는 보고서를 발표했습니다.
미국에서 애플은 2021년 연방정부가 지정한 학대 소재 청소소인 국립 실종 및 착취 아동 센터에 160건의 보고서를 제출했습니다. 페이스북이 2천 2백만 건을 만든 반면, 구글은 875,783건의 보고서를 만들었습니다. 이러한 보고서가 항상 진정으로 학대적인 자료를 반영하는 것은 아닙니다. 일부 부모들은 구글 계정을 정지시켰고 본질적으로 범죄가 아닌 자녀의 이미지로 경찰에 신고되었습니다.
Heat Initiative는 9월 12일로 예정된 애플의 연례 아이폰 공개를 앞두고 캠페인의 시간을 맞추었습니다. 이 캠페인은 이전에 온라인에서 아동 성 학대를 퇴치하기 위해 애쉬튼 커처와 데미 무어가 설립한 비영리 단체인 손에서 대외 담당 부사장이었던 사라 가드너가 주도하고 있습니다. 가드너 씨는 어린이 투자 기금 재단과 오크 재단을 포함한 많은 어린이 안전 후원자들로부터 돈을 모았습니다.
이 그룹은 iCloud의 이름이 지정된 법 집행 사례를 문서화하는 웹 사이트를 구축했습니다. 이 목록에는 아이클라우드에 200개 이상의 이미지를 저장하고 있던 뉴욕의 55세 아동 포르노 혐의가 포함될 것입니다.
가드너 씨는 히트 이니셔티브가 애플 고객과 직원들이 마주칠 수 있는 지역의 가을 내내 광고를 목표로 할 계획이라고 말했습니다. “목표는 애플이 정책을 바꿀 때까지 전략을 계속 운영하는 것입니다,” 라고 가드너 씨가 말했습니다.
카슈미르 힐이 보도를 기고했습니다.
In 2021, Apple was embroiled in controversy over a plan to scan iPhones for child sexual abuse materials. Privacy experts warned that governments could abuse the system, and the backlash was so severe that Apple eventually abandoned the plan.
Two years later, Apple is facing criticism from child safety crusaders and activist investors who are calling on the company to do more to protect children from online abuse.
A child advocacy group, the Heat Initiative, has raised $2 million for a new national advertising campaign calling on Apple to detect, report and remove child sexual abuse materials from iCloud, its cloud storage platform.
Next week, the group will release digital advertisements on websites popular with policymakers in Washington, such as Politico. It will also put up posters across San Francisco and New York that say: “Child sexual abuse material is stored on iCloud. Apple allows it.”
The criticism speaks to a predicament that has dogged Apple for years. The company has made protecting privacy a central part of its iPhone pitch to consumers. But that promise of security has helped make its services and devices, two billion of which are in use, useful tools for sharing child sexual abuse imagery.
The company is caught between child safety groups, which want it to do more to stop the spread of such materials, and privacy experts, who want it to maintain the promise of secure devices.
A group of two dozen investors with nearly $1 trillion in assets under management have also called on Apple to publicly report the number of abusive images that it catches across its devices and services.
Two investors — Degroof Petercam, a Belgian asset manager, and Christian Brothers Investment Services, a Catholic investment firm — will submit a shareholder proposal this month that would require Apple to provide a detailed report on how effective its safety tools were at protecting children.
“Apple seems stuck between privacy and action,” said Matthew Welch, an investment specialist at Degroof Petercam. “We thought a proposal would wake up management and get them to take this more seriously.”
Apple has been quick to respond to child safety advocates. In early August, its privacy executives met with the group of investors, Mr. Welch said. Then, on Thursday, the company responded to an email from the Heat Initiative with a letter that defended its decision not to scan iCloud. It shared the correspondence with Wired, a technology publication.
In Apple’s letter, Erik Neuenschwander, the director for user privacy and child safety, said the company had concluded that “it was not practically possible” to scan iCloud photos without “imperiling the security and privacy of our users.”
“Scanning for one type of content, for instance, opens the door for bulk surveillance and could create a desire to search other encrypted messaging systems,” Mr. Neuenschwander said.
Apple, he added, has created a new default feature for all child accounts that intervenes with a warning if they receive or try to send nude images. It’s designed to prevent the creation of new child sexual abuse material and limit the risk of predators coercing and blackmailing children for money or nude images. It has made those tools available to app developers as well.
In 2021, Apple said it would use technology called image hashes to spot abusive material on iPhones and in iCloud.
But the company failed to communicate that plan broadly with privacy experts, intensifying their skepticism and fueling concern that governments could abuse the technology, said Alex Stamos, the director of the Stanford Internet Observatory at the Cyber Policy Center, who opposed the idea.
Last year, the company discreetly abandoned its plan to scan iCloud, catching child safety groups by surprise.
Apple has won praise from both privacy and child safety groups for its efforts to blunt the creation of new nude images on iMessage and other services. But Mr. Stamos, who applauded the company’s decision not to scan iPhones, said it could do more to stop people from sharing problematic images in the cloud.
“You can have privacy if you store something for yourself, but if you share something with someone else, you don’t get the same privacy,” Mr. Stamos said.
Governments around the world are putting pressure on Apple to take action. Last year, eSafety Commissioner in Australia issued a report criticizing Apple and Microsoft for failing to do more to proactively police their services for abusive material.
In the United States, Apple made 160 reports in 2021 to the National Center for Missing and Exploited Children, a federally designated clearinghouse for abusive material. Google made 875,783 reports, while Facebook made 22 million. These reports do not always reflect truly abusive material; some parents have had their Google accounts suspended and have been reported to the police for images of their children that were not criminal in nature.
The Heat Initiative timed its campaign ahead of Apple’s annual iPhone unveiling, which is scheduled for Sept. 12. The campaign is being led by Sarah Gardner, who was previously the vice president for external affairs at Thorn, a nonprofit founded by Ashton Kutcher and Demi Moore to combat child sexual abuse online. Ms. Gardner raised money from a number of child safety supporters, including the Children’s Investment Fund Foundation and the Oak Foundation.
The group has built a website that documents law enforcement cases where iCloud has been named. The list will include child pornography charges brought against a 55-year-old in New York who had more than 200 images stored in iCloud.
Ms. Gardner said the Heat Initiative planned to target advertising throughout the fall in areas where Apple customers and employees would encounter it. “The goal is to continue to run the tactics until Apple changes its policy,” Ms. Gardner said.
Kashmir Hill contributed reporting.
