알렉사, 학생들은 인공지능에 대해 무엇을 배워야 할까요?

알렉사, 학생들은 인공지능에 대해 무엇을 배워야 할까요?

[NYT]Hey, Alexa, What Should Students Learn About A.I.?

Amazon의 고위 임원인 Rohit Prasad는 보스턴의 Roxbury 이웃에 있는 Dearborn STEM Academy의 9학년과 10학년 학생들에게 긴급 메시지를 보냈습니다.

그는 최근 아침에 아마존의 음성 작동 가상 비서인 알렉사를 위해 간단한 작업을 프로그래밍하는 방법을 학생들에게 가르치는 인공지능에 대한 아마존 후원 수업을 보기 위해 학교에 왔습니다. 그리고 그는 디어본 학생들에게 곧 A에서 수백만 개의 새로운 일자리가 생길 것이라고 장담했습니다.i.

“우리는 다음 세대를 위한 재능을 창조할 필요가 있습니다,” 라고 알렉사의 수석 과학자 프라사드가 교실에서 말했습니다. “그래서 우리는 A에 대해 교육하고 있습니다.I. 빨라도 풀뿌리 수준입니다.”

몇 마일 떨어진 곳에서, 매사추세츠 공과대학의 샐리 콘블루스 총장은 A에 대해 좀 더 냉정한 메시지를 전달하고 있었습니다.I. A에 대한 워크숍을 위해 보스턴의 케네디 도서관 단지에 모인 지역 학교 학생들에게.I. 위험과 규제.

“A 때문에.I.는 매우 강력한 신기술입니다. 그것이 사회에서 잘 작동하기 위해서는 정말로 몇 가지 규칙이 필요합니다,” 라고 콘블루스 박사가 말했습니다. “우리는 그것이 하지 않는 것이 해를 끼치도록 해야 합니다.”

인공지능에 대한 고무적인 작업과 너무 성급하게 기술을 배치하지 말라는 경고와 같은 날의 행사는 A의 가능성과 잠재적 위험에 대해 현재 미국에서 치열하게 벌어지고 있는 더 큰 논쟁을 반영했습니다.i.

두 학생 워크숍은 “책임감 있는 A”에 대한 M.I.T. 이니셔티브에 의해 조직되었습니다.저는 아마존, 구글, 마이크로소프트를 기부자로 두고 있습니다. 그리고 그들은 올해 전국의 학군들을 화나게 한 질문을 강조했습니다: 일부 저명한 A에 따르면, 학교는 학생들이 세계를 탐색할 수 있도록 어떻게 준비해야 합니까.I. 개발자들, 인공지능으로 작동하는 도구의 우세는 거의 불가피해 보입니다?

A를 가르칩니다.학교에서 I.는 새로운 것이 아닙니다. 컴퓨터 과학과 시민학과 같은 과정은 이제 정기적으로 얼굴 인식과 다른 자동화된 시스템의 사회적 영향에 대한 연습을 포함합니다.

하지만 A에 대한 추진력.I. 올해 교육은 ChatGPT에 대한 뉴스, 즉 인간과 같은 숙제 에세이를 만들고 때로는 잘못된 정보를 제조할 수 있는 새로운 챗봇에 대한 뉴스가 학교에서 퍼지기 시작한 이후 더 긴급해졌습니다.

자, “A.I. 식자력”은 새로운 교육 유행어입니다. 학교들은 그것을 가르치는 데 도움이 될 자원을 찾기 위해 안간힘을 쓰고 있습니다. 일부 대학, 기술 회사 및 비영리 단체는 이미 만들어진 커리큘럼으로 대응하고 있습니다.

학교들이 다음과 같은 근본적인 문제와 씨름하고 있는 동안에도 이 수업은 확산되고 있습니다: 그들이 학생들에게 A를 프로그래밍하고 사용하도록 가르쳐야 합니까.I. 고용주가 추구하는 기술적 기술에 대한 교육을 제공하는 도구? 아니면 학생들이 A를 예측하고 완화하는 법을 배워야 할까요.I. 위해?

책임감 있는 A에 대한 대학의 이니셔티브를 지휘하는 M.I.T.의 신시아 브리잘 교수.I. 사회적 권한과 교육을 위한 그녀의 프로그램은 학교가 두 가지 모두를 할 수 있도록 돕는 것을 목표로 한다고 말했습니다.

“우리는 학생들이 이러한 기술에 대해 정보를 얻고, 책임감 있는 사용자와, 책임감 있는 설계자들에게 알려지기를 원합니다.”라고 A팀을 조직한 Breazal 박사가 말했습니다.I. 학교를 위한 워크샵. “우리는 그들이 A의 이러한 급속한 발전에 대해 정보를 제공하고 책임감 있는 시민이 되도록 하고 싶습니다.I. 그리고 그것들이 우리의 개인적이고 직업적인 삶에 영향을 미치는 많은 방법들.”

(공개: 저는 최근 M.I.T.의 나이트 사이언스 저널리즘 프로그램의 연구원이었습니다.)

다른 교육 전문가들은 학교가 또한 학생들이 A가 속한 더 넓은 생태계를 고려하도록 장려해야 한다고 말합니다.I. 시스템이 작동합니다. 여기에는 학생들이 새로운 기술 뒤에 있는 비즈니스 모델을 연구하거나 A 방법을 검토하는 것이 포함될 수 있습니다.I. 도구는 사용자 데이터를 이용합니다.

“만약 우리가 학생들이 이 새로운 시스템에 대해 배우도록 한다면, 우리는 정말로 이 새로운 시스템을 둘러싼 맥락에 대해 생각해야 합니다,” 라고 데이비스에 있는 캘리포니아 대학의 학습 및 정신 과학 조교수인 제니퍼 힉스가 말했습니다. 하지만 종종, 그녀는 “그 작품은 아직도 없어요.”라고 언급했습니다

보스턴에서 열린 워크숍은 전 세계 수천 명의 학생들이 참여한 브리잘 박사의 프로그램에 의해 조직된 “A.I.의 날” 행사의 일부였습니다. 그것은 학교들이 A에 취하고 있는 다양한 접근법을 엿볼 수 있었습니다.I. 교육.

Dearborn STEM의 컴퓨터 과학 교육 프로그램인 Amazon Future Engineer의 수석 제품 관리자인 Hilah Barbot은 음성 A 수업을 주도했습니다.학생들을 위한 I. 이 수업은 M.I.T.가 코딩 커리큘럼과 K-12 학교들을 위한 다른 프로그램들을 제공하는 아마존 프로그램과 함께 개발했습니다. 그 회사는 프로젝트를 위해 M.I.T.에 2백만 달러 이상의 보조금을 제공했습니다.

먼저, 바봇 씨는 A 목소리에 대해 설명했습니다.I. lingo. 그녀는 학생들에게 소비자들이 알렉사에게 반응을 유도하기 위해 할 수 있는 말인 “말하기”에 대해 가르쳤습니다.

그리고 나서 학생들은 알렉사를 위해 농담을 하는 것과 같은 간단한 작업을 프로그래밍했습니다. 9학년인 Jada Reed는 일본 만화 캐릭터에 대한 질문에 답하도록 Alexa를 프로그래밍했습니다. “저는 여러분이 다른 것들을 하도록 훈련시킬 수 있다는 것이 정말 멋지다고 생각합니다,” 라고 그녀가 말했습니다.

브리잘 박사는 학생들이 일류 기술 회사의 전문적인 소프트웨어 도구에 접근하는 것이 중요하다고 말했습니다. “우리는 그들에게 미래에 대비한 기술과 그들이 어떻게 A와 함께 일할 수 있는지에 대한 관점을 제공하고 있습니다.I. 그들이 관심을 갖는 것들을 하기 위해서”라고 그녀는 말했습니다.

학교에서 이미 로봇을 만들고 프로그래밍한 몇몇 디어본 학생들은 다른 기술인 음성 작동 헬프봇을 코딩하는 방법을 배우는 것에 감사한다고 말했습니다. 알렉사는 A 범위를 사용합니다.I. 자동 음성 인식을 포함하는 기술.

적어도 몇몇 학생들은 사생활과 A에 대한 다른 우려를 가지고 있다고 말했습니다.I. 보조 도구.

아마존은 사람이 “알렉사”와 같은 “깨우는 단어”를 말한 후 소비자들의 에코 스피커와의 대화를 녹음합니다 사용자가 선택하지 않는 한, 아마존은 알렉사와의 상호 작용을 사용하여 광고로 그들을 겨냥하거나 음성 녹음을 사용하여 A를 훈련시킬 수 있습니다.I. 모델들. 지난 주, 아마존은 연방 온라인 아동 개인 정보 보호법을 위반하여 어린이들의 음성 녹음물을 무기한 보관했다는 연방 정부의 혐의를 해결하기 위해 2,500만 달러를 지불하기로 합의했습니다. 그 회사는 혐의에 대해 이의를 제기하고 법을 위반했다는 것을 부인했다고 말했습니다. 이 회사는 고객이 알렉사 음성 녹음을 검토하고 삭제할 수 있다고 언급했습니다.

그러나 아마존이 주도하는 1시간 워크숍은 회사의 데이터 관행에 대해서는 언급하지 않았습니다.

친애하는 STEM 학생들은 정기적으로 기술을 면밀히 조사합니다. 몇 년 전, 그 학교는 학생들이 A를 사용하는 과정을 도입했습니다.I. 자체적으로 딥페이크 비디오(즉, 거짓 콘텐츠)를 만들고 그 결과를 조사하는 도구입니다. 그리고 학생들은 그날 아침 프로그래밍을 배우는 가상 비서에 대해 생각했습니다.

“알렉사가 여러분에게 광고를 보여주기 위해 여러분의 대화를 듣는다는 음모론이 있다는 것을 알고 있었나요?”라고 Eboni Maxwell이라는 9학년 학생이 물었습니다.

다른 9학년 라니야 샌더스는 “듣는 것이 두렵지 않습니다,”라고 대답했습니다. 그럼에도 불구하고, 샌더스 씨는 “그냥 내가 하고 싶어서” 음성 비서 사용을 피했다고 말했습니다

몇 마일 떨어진 미국 상원의 에드워드 M. 케네디 연구소, 미국 상원의 실물 크기 복제품을 보관하고 있는 교육 센터에서, 매사추세츠 찰스타운에 있는 워렌 프레스콧 학교의 수십 명의 학생들이 다른 주제를 탐구하고 있었습니다: A.I. 정책 및 안전 규정.

다른 주에서 온 상원의원의 역할을 맡은 중학생들은 가상의 A에 대한 조항에 대해 토론하는 모의 청문회에 참여했습니다.I. 안전 법안.

일부 학생들은 회사와 경찰이 A를 사용하는 것을 금지하기를 원했습니다.I. 인종이나 민족과 같은 데이터를 기반으로 사람들을 목표로 삼습니다. 다른 사람들은 학교와 병원이 A의 공정성을 평가하도록 요구하기를 원했습니다.I. 시스템을 배포하기 전에 필요합니다.

그 운동은 중학생들에게 낯설지 않았습니다. Warren Prescott의 영어와 시민학 교사인 Nancy Arsenault는 종종 학생들에게 디지털 도구가 그들과 그들이 아끼는 사람들에게 어떤 영향을 미치는지 생각해보라고 요청했다고 말했습니다.

“학생들이 기술을 사랑하는 만큼, 그들은 자유로운 A를 예리하게 인식하고 있습니다.”나는 그들이 원하는 것이 아닙니다.”라고 그녀가 말했습니다. “그들은 한계를 보고 싶어합니다.”

Rohit Prasad, a senior Amazon executive, had an urgent message for ninth and 10th graders at Dearborn STEM Academy, a public school in Boston’s Roxbury neighborhood.

He had come to the school on a recent morning to observe an Amazon-sponsored lesson in artificial intelligence that teaches students how to program simple tasks for Alexa, Amazon’s voice-activated virtual assistant. And he assured the Dearborn students there would soon be millions of new jobs in A.I.

“We need to create the talent for the next generation,” Mr. Prasad, the head scientist for Alexa, told the class. “So we are educating about A.I. at the earliest, grass-roots level.”

A few miles away, Sally Kornbluth, the president of the Massachusetts Institute of Technology, was delivering a more sobering message about A.I. to students from local schools who had gathered at Boston’s Kennedy Library complex for a workshop on A.I. risks and regulation.

“Because A.I. is such a powerful new technology, in order for it to work well in society, it really needs some rules,” Dr. Kornbluth said. “We have to make sure that what it doesn’t do is cause harm.”

The same-day events — one encouraging work in artificial intelligence and the other cautioning against deploying the technology too hastily — mirrored the larger debate currently raging in the United States over the promise and potential peril of A.I.

Both student workshops were organized by an M.I.T. initiative on “responsible A.I.” whose donors include Amazon, Google and Microsoft. And they underscored a question that has vexed school districts across the nation this year: How should schools prepare students to navigate a world in which, according to some prominent A.I. developers, the ascendancy of A.I.-powered tools seems all but inevitable?

Teaching A.I. in schools is not new. Courses like computer science and civics now regularly include exercises on the societal impacts of facial recognition and other automated systems.

But the push for A.I. education took on more urgency this year after news about ChatGPT — a novel chatbot that can create humanlike homework essays and sometimes manufactures misinformation — began spreading in schools.

Now, “A.I. literacy” is a new education buzz phrase. Schools are scrambling for resources to help teach it. Some universities, tech companies and nonprofits are responding with ready-made curriculums.

The lessons are proliferating even as schools are wrestling with a fundamental question: Should they teach students to program and use A.I. tools, providing training in tech skills employers seek? Or should students learn to anticipate and mitigate A.I. harms?

Cynthia Breazeal, a professor at M.I.T. who directs the university’s initiative on Responsible A.I. for Social Empowerment and Education, said her program aimed to help schools do both.

“We want students to be informed, responsible users and informed, responsible designers of these technologies,” said Dr. Breazeal, whose group organized the A.I. workshops for schools. “We want to make them informed, responsible citizens about these rapid developments in A.I. and the many ways they are influencing our personal and professional lives.”

(Disclosure: I was recently a fellow at the Knight Science Journalism program at M.I.T.)

Other education experts say schools should also encourage students to consider the broader ecosystems in which A.I. systems operate. That might include students researching the business models behind new technologies or examining how A.I. tools exploit user data.

“If we are engaging students in learning about these new systems, we really have to think about the context surrounding these new systems,” said Jennifer Higgs, an assistant professor of learning and mind sciences at the University of California, Davis. But often, she noted, “that piece is still missing.”

The workshops in Boston were part of a “Day of A.I.” event organized by Dr. Breazeal’s program, which drew several thousands students worldwide. It offered a glimpse of the varied approaches that schools are taking to A.I. education.

At Dearborn STEM, Hilah Barbot, a senior product manager at Amazon Future Engineer, the company’s computer science education program, led a lesson in voice A.I. for students. The lessons were developed by M.I.T. with the Amazon program, which provides coding curriculums and other programs for K-12 schools. The company provided more than $2 million in grants to M.I.T. for the project.

First, Ms. Barbot explained some voice A.I. lingo. She taught students about “utterances,” the phrases that consumers might say to prompt Alexa to respond.

Then students programmed simple tasks for Alexa, like telling jokes. Jada Reed, a ninth grader, programmed Alexa to respond to questions about Japanese manga characters. “I think it’s really cool you can train it to do different things,” she said.

Dr. Breazeal said it was important for students to have access to professional software tools from leading tech companies. “We’re giving them future-proof skills and perspectives of how they can work with A.I. to do things they care about,” she said.

Some Dearborn students, who had already built and programmed robots in school, said they appreciated learning how to code a different technology: voice-activated helpbots. Alexa uses a range of A.I. techniques, including automatic speech recognition.

At least a few students also said they had privacy and other concerns about A.I.-assisted tools.

Amazon records consumers’ conversations with its Echo speakers after a person says a “wake word” like “Alexa.” Unless users opt out, Amazon may use their interactions with Alexa to target them with ads or use their voice recordings to train its A.I. models. Last week, Amazon agreed to pay $25 million to settle federal charges that it had indefinitely kept children’s voice recordings, violating the federal online children’s privacy law. The company said it disputed the charges and denied that it had violated the law. The company noted that customers could review and delete their Alexa voice recordings.

But the one-hour Amazon-led workshop did not touch on the company’s data practices.

Dearborn STEM students regularly scrutinize technology. Several years ago, the school introduced a course in which students used A.I. tools to create deepfake videos — that is, false content — of themselves and examine the consequences. And the students had thoughts on the virtual assistant they were learning to program that morning.

“Did you know there’s a conspiracy theory that Alexa listens to your conversations to show you ads?” a ninth grader named Eboni Maxwell asked.

“I’m not afraid of it listening,” Laniya Sanders, another ninth grader, replied. Even so, Ms. Sanders said she avoided using voice assistants because “I just want to do it myself.”

A few miles away at the Edward M. Kennedy Institute for the United States Senate, an education center that houses a full-scale replica of the U.S. Senate chamber, dozens of students from Warren Prescott School in Charlestown, Mass., were exploring a different topic: A.I. policy and safety regulations.

Playing the role of senators from different states, the middle school students participated in a mock hearing in which they debated provisions for a hypothetical A.I. safety bill.

Some students wanted to ban companies and police departments from using A.I. to target people based on data like their race or ethnicity. Others wanted to require schools and hospitals to assess the fairness of A.I. systems before deploying them.

The exercise was not unfamiliar for the middle school students. Nancy Arsenault, an English and civics teacher at Warren Prescott, said she often asked her students to consider how digital tools affected them and the people they care about.

“As much as students love tech, they are keenly aware that unfettered A.I. is not something they want,” she said. “They want to see limits.”

공유하기

댓글 남기기