ガジェット公開書簡には誰でも署名できます
AI開発競争に6か月の停止求める公開書簡。テック企業トップやAI専門家が署名
アップルの共同創業者として知られるスティーブ・ウォズニアック氏、テスラ/SpaceX/TwitterのCEO イーロン・マスク氏をはじめテクノロジー企業の経営者やAI専門家などが多数署名した、GPT-4などを含む人工知能システムの強化・開発を少なくとも6か月間、ただちに停止することをAI開発企業に求める公開書簡が発表された。
この公開書簡は、人類が直面する地球規模の壊滅的なリスクとして、特に高度な人工知能による脅威の軽減を求める非営利団体「Future of Life Institute(FLI)」によって作成され、賛同者の署名を募っていたもの。なお、マスク氏は以前、FLIに対してAIの安全性に関する研究費用として1,000万ドルを寄付している。
上記2名以外の著名な賛同者としては、ニューラルネットワークおよびディープラーニングの権威であるヨシュア・ベンジオ氏、国連の武器管理アドバイザーなども務めるコンピューター科学者のスチュアート・ラッセル氏、Stable Diffusionを開発するStability AIのCEO、エマド・モスターク氏の名前もある。
この呼びかけは、2022年に機械学習の研究者を対象に行われた調査で、調査対象者の約半数が、「AIが人類絶滅を含む極めて悪い結果を引きおこす可能性」が10%以上あると回答したことを受けて行われた。
AIが人類に対して害をおよぼすというテーマは、長年SF小説や映画のテーマとして扱われてきた。しかしここ数年においては、小説を執筆し、絵画を描き、メールを代筆し、大学入試に合格できる知能を得るといった著しい進歩を見せるようになり、最近ではAIに関するニュースを見ない日のほうが少ないと言っても大げさではなくなっている。
公開書簡は、急速に進化し始めたAIに関して「われわれの情報チャネルを機械によるプロパガンダと虚偽で氾濫させてもよいのか」、「あらゆる仕事をAIに置き換えていくべきか」、「われわれに取って代わる可能性がある人間以外の”心”を開発すべきか」、「われわれの文明の制御を損なう危険を冒すべきか」という、4つの質問をAI企業に投げかけている。
そして、冒頭に紹介した「GPT-4以上に強力なAIの強化を6か月間停止」することを提案し、この6か月の停止の間に、AIの設計開発における共通の安全基準を確立すべきだと述べている。この安全基準は、独立した外部の専門家らによって監督され、AIシステムが安全であることを保証するものになるという。
ちなみに、公開書簡はウェブページにも掲載され、そこから誰でも署名を書き加えられるようになっている。ただし、公開当初に署名した人とは違い、ウェブページから行われた署名はそのままでは本人確認・検証がされないため、実質的にはあまり意味がないかもしれない。
Source: Future of Life Institute
via: Ars Technica, CNBC
この公開書簡は、人類が直面する地球規模の壊滅的なリスクとして、特に高度な人工知能による脅威の軽減を求める非営利団体「Future of Life Institute(FLI)」によって作成され、賛同者の署名を募っていたもの。なお、マスク氏は以前、FLIに対してAIの安全性に関する研究費用として1,000万ドルを寄付している。
上記2名以外の著名な賛同者としては、ニューラルネットワークおよびディープラーニングの権威であるヨシュア・ベンジオ氏、国連の武器管理アドバイザーなども務めるコンピューター科学者のスチュアート・ラッセル氏、Stable Diffusionを開発するStability AIのCEO、エマド・モスターク氏の名前もある。
この呼びかけは、2022年に機械学習の研究者を対象に行われた調査で、調査対象者の約半数が、「AIが人類絶滅を含む極めて悪い結果を引きおこす可能性」が10%以上あると回答したことを受けて行われた。
AIが人類に対して害をおよぼすというテーマは、長年SF小説や映画のテーマとして扱われてきた。しかしここ数年においては、小説を執筆し、絵画を描き、メールを代筆し、大学入試に合格できる知能を得るといった著しい進歩を見せるようになり、最近ではAIに関するニュースを見ない日のほうが少ないと言っても大げさではなくなっている。
公開書簡は、急速に進化し始めたAIに関して「われわれの情報チャネルを機械によるプロパガンダと虚偽で氾濫させてもよいのか」、「あらゆる仕事をAIに置き換えていくべきか」、「われわれに取って代わる可能性がある人間以外の”心”を開発すべきか」、「われわれの文明の制御を損なう危険を冒すべきか」という、4つの質問をAI企業に投げかけている。
そして、冒頭に紹介した「GPT-4以上に強力なAIの強化を6か月間停止」することを提案し、この6か月の停止の間に、AIの設計開発における共通の安全基準を確立すべきだと述べている。この安全基準は、独立した外部の専門家らによって監督され、AIシステムが安全であることを保証するものになるという。
ちなみに、公開書簡はウェブページにも掲載され、そこから誰でも署名を書き加えられるようになっている。ただし、公開当初に署名した人とは違い、ウェブページから行われた署名はそのままでは本人確認・検証がされないため、実質的にはあまり意味がないかもしれない。
Source: Future of Life Institute
via: Ars Technica, CNBC