ガジェット“深層学習の父”ジェフリー・ヒントンも
「AIは核戦争に並ぶ絶滅リスク」声明発表。“AI企業トップ”など各界著名人が署名
ここ最近の大規模言語モデル(LLM)ブームにより、OpenAIのChatGPTやGoogleのBardをいったAIチャットボットが人気を博した。その一方で、IT業界の著名人や専門家からは、その急速な発達と普及によってもたらされる “リスク” に関する懸念も聞こえている。
そして、サンフランシスコを拠点に、人工知能の研究とフィールド構築を行う非営利団体Center for AI Safety (CAIS)が、「AIによる絶滅のリスク」を警告する声明を発表した。この声明には、OpenAIのサム・アルトマンCEOやGoogle Deepminfの責任者デミス・ハサビス氏らAI業界を牽引するリーダーや、人工知能研究の第一人者で “深層学習の父” とも呼ばれるジェフリー・ヒントン氏ならびにヨシュア・ベンジオ氏、さらに数々のAI技術企業のトップやコンピューター科学者らが署名している。
これは2か月前に発表された、激化するAI開発競争に対して6か月間の開発停止を求めた公開書簡に続く、AIがもたらすリスクに対する警告だ。ただ、この公開書簡に対しては、リスクには同意するものの、その解決を6か月停止することに意味はないとする意見があったり、一部からはAIのリスクを誇張しているとの批判もあり、その結果書簡のメッセージ性がやや薄れてしまった感がある。
今回の声明は、ただ1文「AIによる絶滅のリスクを軽減することは、パンデミックや核戦争などの他の社会規模のリスクと並んで世界的な優先事項であるべきだ」とだけ記されている。これだけ簡潔にした理由は、上記のような意見の相違を避ける意図もあったという。
おそらく、まだAIは “目覚め” てはいないが、映像におけるディープフェイクや、AIによる声の置き換え技術などはすでに悪用例もあり、詐欺などに悪用されるリスクを抱えている。またジェネレーティブAIの数々は、アートや文学といったコンテンツの新しい制作方法として、これまでその作業に携わっていた人たちの仕事に影響を及ぼしている可能性がある。
米国のジョー・バイデン大統領は、4月に「AIは、病気や気候変動のような非常に難しい課題への対処に役立つが、それと同時に、われわれの社会、経済、国家安全保障に対する潜在的なリスクにも対処しなければならない」と述べていた。
Source: Center for AI Safety
via: The Verge
そして、サンフランシスコを拠点に、人工知能の研究とフィールド構築を行う非営利団体Center for AI Safety (CAIS)が、「AIによる絶滅のリスク」を警告する声明を発表した。この声明には、OpenAIのサム・アルトマンCEOやGoogle Deepminfの責任者デミス・ハサビス氏らAI業界を牽引するリーダーや、人工知能研究の第一人者で “深層学習の父” とも呼ばれるジェフリー・ヒントン氏ならびにヨシュア・ベンジオ氏、さらに数々のAI技術企業のトップやコンピューター科学者らが署名している。
これは2か月前に発表された、激化するAI開発競争に対して6か月間の開発停止を求めた公開書簡に続く、AIがもたらすリスクに対する警告だ。ただ、この公開書簡に対しては、リスクには同意するものの、その解決を6か月停止することに意味はないとする意見があったり、一部からはAIのリスクを誇張しているとの批判もあり、その結果書簡のメッセージ性がやや薄れてしまった感がある。
今回の声明は、ただ1文「AIによる絶滅のリスクを軽減することは、パンデミックや核戦争などの他の社会規模のリスクと並んで世界的な優先事項であるべきだ」とだけ記されている。これだけ簡潔にした理由は、上記のような意見の相違を避ける意図もあったという。
おそらく、まだAIは “目覚め” てはいないが、映像におけるディープフェイクや、AIによる声の置き換え技術などはすでに悪用例もあり、詐欺などに悪用されるリスクを抱えている。またジェネレーティブAIの数々は、アートや文学といったコンテンツの新しい制作方法として、これまでその作業に携わっていた人たちの仕事に影響を及ぼしている可能性がある。
米国のジョー・バイデン大統領は、4月に「AIは、病気や気候変動のような非常に難しい課題への対処に役立つが、それと同時に、われわれの社会、経済、国家安全保障に対する潜在的なリスクにも対処しなければならない」と述べていた。
Source: Center for AI Safety
via: The Verge