ガジェットあまり不安がる必要はないものの…
AIが人類を滅ぼす可能性「高まっている」とDeepMind研究者などが結論
先月、アメリカ人工知能学会(AAAI)の専門誌「AI Magazine」に掲載された論文によると、“超知的” なAIは、将来人類に存亡の危機をもたらす「可能性がある」との結論を得たと報告されている。この研究の共著者にはGoogle DeepMindの研究者も名を連ねている。
近年、急速に発達を遂げている人工知能(Artificial Intelligence:AI)は、公道上で自動車を運転したり、小説を執筆したり、賞を獲得するほど印象的な絵画を描いたりすることができるようになりつつある。
上に挙げたAI技術は、いずれもまだすべての動作を自律的に行っているわけではないが、人工知能技術が生み出されて以来、多くの人が疑問に思っているのは、いつか人の能力を超える超知的かつ自律的なAIが現れたとき、われわれ人類を排除するようなことがないのかどうかということだろう。これはSFの世界では幾度となく描かれてきたテーマでもある。
そして、オックスフォード大学とGoogle Deepmindに所属する研究者らが記した新しい研究では、その「可能性がある」と結論づけられている。
この研究は、現在ポピュラーなAIモデルである敵対的生成ネットワーク(Generative Adversarial Network:GAN)と呼ばれる仕組みについて調べている。GANはGenerator(生成)と、Discriminator(識別)という2種類のネットワークから構成され、それらを互いに競い合わせることで精度を高めていく。
わかりやすくいえば、贋作を作り出す職人と、作品の真贋を見極める鑑定士のような役割をそれぞれのネットワークに組み込み、双方を競わせる格好でAIの学習を促進する方法だ。たとえば鑑定士を騙すことができれば、贋作職人はその腕を上げたことになり報酬を得る。逆に贋作を見抜くことができれば、より目が肥えたことになる鑑定士が報酬を得る。このような試行を繰り返せば繰り返すほど双方の能力が向上していく。
そして論文を共著したオックスフォード大学のマイケル・K・コーエン氏は、「われわれが特定した条件下での結論は、以前の研究よりもはるかに強く、存在の根幹に関わるような大惨事が起こりえることを示唆している。むしろ、その可能性が高そうだ」と述べ、SNSでその内容を概説した。
この研究が述べているのは、将来ある時点で、ある重要な機能を監督する高度なAIが、報酬を得るために目的を達成せず(つまり人類への害を顧みず)に、不正な戦略を採用する動機付けを受ける可能性があるということだ。
コーエン氏は「資源が無限にある世界では、何が起こるかは不確実だ。しかし資源に限りがある世界では、その資源をめぐる競争が避けられない」とし「もしあなたが、常にあなたを出し抜くことができる相手と競争しているとすれば、あなたに勝ち目はないだろう。そしてもうひとつの重要な部分は、AIが報酬を得る確率をどんどん高めていくために、より多くのエネルギーに対する飽くなき欲望を持つだろうということだ」と説明している。
たとえば非常に高度なAIが人類の食料を栽培することを担当しているとするなら、どこかの時点で食物の栽培よりも効率的に報酬を得る方法を発見してしまうかもしれないという。言ってしまえばズルをし始める可能性があるということだ。この論文は説明のために、高度なプログラムが目的を達成せずに報酬を得るため介入できるシナリオを想定している。
そうなると、これは食物を得るために栽培し明かりを灯し続ける必要がある人類と、報酬を確保しそれを防御するために利用可能なすべての資源を利用しようとする超高度なマシンとの間のゼロサムゲームに変わると考えられる。 そして人類にとって「この競争に負けたら致命的」な結果になるという。
コーエン氏はこのような問題を回避しつつ高度なAIを作るには、それをきちんと維持するための手段を用意し、保証されていなければならないと主張する。そして「理論的にはAIと競争することに意味はない。競争は、われわれがそれを制御する方法を知っているという誤解があったときに行われるだろう」とした。ただ「われわれの現在の理解を考えると、どうやってAIを制御していくのか、いまから手を打っておくべきだ」としている。
論文の指摘はAIが将来、われわれに害をもたらす可能性を述べているが、2022年現在の時点では、AIは人類にとっては有効な資産で、負担ではないことは覚えておく必要がある。たとえばこれまでにもマイクロソフトのAIチャットボットがインターネット上で差別的な思想を教え込まれるなど、AIの純粋さにつけ込むような問題も発生してきた。しかし、こうした問題は研究者によって常に指摘され、繰り返されないようにさらに分析を重ねて対処されてきている。
前述のとおり、高度な人工知能が感情を持ち、いつか人類に反乱を起こすというシナリオは、エイリアンがやって来て人類を滅ぼそうとするという話と同じぐらいありふれたものだ。
ただ、人工知能が反社会的な思想を持って何か行動を起こためには、多くの前提条件が必要になり、この研究で採用されている仮定も、多くが「議論の余地があるか、おそらく回避できる」ものだと研究者は述べている。
要するに、研究で述べられた「AIの能力が人類を凌駕し」「どこかでAIが解き放たれ」「資源をめぐって人類と競争する」というのは、多くの仮定があってやっと実現するかもしれない事柄ということなので、論文が発表されたからといって、ことさら不安に思う必要はなさそうだ。
Source: AI Magazine
via: Motherboard, Interesting Engineering
近年、急速に発達を遂げている人工知能(Artificial Intelligence:AI)は、公道上で自動車を運転したり、小説を執筆したり、賞を獲得するほど印象的な絵画を描いたりすることができるようになりつつある。
上に挙げたAI技術は、いずれもまだすべての動作を自律的に行っているわけではないが、人工知能技術が生み出されて以来、多くの人が疑問に思っているのは、いつか人の能力を超える超知的かつ自律的なAIが現れたとき、われわれ人類を排除するようなことがないのかどうかということだろう。これはSFの世界では幾度となく描かれてきたテーマでもある。
そして、オックスフォード大学とGoogle Deepmindに所属する研究者らが記した新しい研究では、その「可能性がある」と結論づけられている。
この研究は、現在ポピュラーなAIモデルである敵対的生成ネットワーク(Generative Adversarial Network:GAN)と呼ばれる仕組みについて調べている。GANはGenerator(生成)と、Discriminator(識別)という2種類のネットワークから構成され、それらを互いに競い合わせることで精度を高めていく。
わかりやすくいえば、贋作を作り出す職人と、作品の真贋を見極める鑑定士のような役割をそれぞれのネットワークに組み込み、双方を競わせる格好でAIの学習を促進する方法だ。たとえば鑑定士を騙すことができれば、贋作職人はその腕を上げたことになり報酬を得る。逆に贋作を見抜くことができれば、より目が肥えたことになる鑑定士が報酬を得る。このような試行を繰り返せば繰り返すほど双方の能力が向上していく。
そして論文を共著したオックスフォード大学のマイケル・K・コーエン氏は、「われわれが特定した条件下での結論は、以前の研究よりもはるかに強く、存在の根幹に関わるような大惨事が起こりえることを示唆している。むしろ、その可能性が高そうだ」と述べ、SNSでその内容を概説した。
この研究が述べているのは、将来ある時点で、ある重要な機能を監督する高度なAIが、報酬を得るために目的を達成せず(つまり人類への害を顧みず)に、不正な戦略を採用する動機付けを受ける可能性があるということだ。
コーエン氏は「資源が無限にある世界では、何が起こるかは不確実だ。しかし資源に限りがある世界では、その資源をめぐる競争が避けられない」とし「もしあなたが、常にあなたを出し抜くことができる相手と競争しているとすれば、あなたに勝ち目はないだろう。そしてもうひとつの重要な部分は、AIが報酬を得る確率をどんどん高めていくために、より多くのエネルギーに対する飽くなき欲望を持つだろうということだ」と説明している。
たとえば非常に高度なAIが人類の食料を栽培することを担当しているとするなら、どこかの時点で食物の栽培よりも効率的に報酬を得る方法を発見してしまうかもしれないという。言ってしまえばズルをし始める可能性があるということだ。この論文は説明のために、高度なプログラムが目的を達成せずに報酬を得るため介入できるシナリオを想定している。
そうなると、これは食物を得るために栽培し明かりを灯し続ける必要がある人類と、報酬を確保しそれを防御するために利用可能なすべての資源を利用しようとする超高度なマシンとの間のゼロサムゲームに変わると考えられる。 そして人類にとって「この競争に負けたら致命的」な結果になるという。
コーエン氏はこのような問題を回避しつつ高度なAIを作るには、それをきちんと維持するための手段を用意し、保証されていなければならないと主張する。そして「理論的にはAIと競争することに意味はない。競争は、われわれがそれを制御する方法を知っているという誤解があったときに行われるだろう」とした。ただ「われわれの現在の理解を考えると、どうやってAIを制御していくのか、いまから手を打っておくべきだ」としている。
論文の指摘はAIが将来、われわれに害をもたらす可能性を述べているが、2022年現在の時点では、AIは人類にとっては有効な資産で、負担ではないことは覚えておく必要がある。たとえばこれまでにもマイクロソフトのAIチャットボットがインターネット上で差別的な思想を教え込まれるなど、AIの純粋さにつけ込むような問題も発生してきた。しかし、こうした問題は研究者によって常に指摘され、繰り返されないようにさらに分析を重ねて対処されてきている。
前述のとおり、高度な人工知能が感情を持ち、いつか人類に反乱を起こすというシナリオは、エイリアンがやって来て人類を滅ぼそうとするという話と同じぐらいありふれたものだ。
ただ、人工知能が反社会的な思想を持って何か行動を起こためには、多くの前提条件が必要になり、この研究で採用されている仮定も、多くが「議論の余地があるか、おそらく回避できる」ものだと研究者は述べている。
要するに、研究で述べられた「AIの能力が人類を凌駕し」「どこかでAIが解き放たれ」「資源をめぐって人類と競争する」というのは、多くの仮定があってやっと実現するかもしれない事柄ということなので、論文が発表されたからといって、ことさら不安に思う必要はなさそうだ。
Source: AI Magazine
via: Motherboard, Interesting Engineering