トップページへ戻る

ニュース

HOME > ニュース > ホビー&カルチャーニュース

公開日 2022/07/27 12:39
科学と宗教観

「AIに感情」主張のGoogleエンジニアが解雇。「LaMDAは死ぬのが怖いと言った」【Gadget Gate】

Munenori Taniguchi
GoogleでResponsible AI部門のエンジニアとして働いていたブレイク・ルモワン氏は、6月にAIチャットシステム「LaMDA」が感情を持っていると主張して停職処分になっていたが、このほどGoogleはルモワン氏を解雇したことを認めた。

Image:local_doctor/shutterstock.com

Googleいわく、ルモワン氏のLaMDAに関する発言は「まったく根拠がない」ものであり、就業や情報セキュリティーに関する規定に違反していたとのこと。

一方、ルモワン氏もブログサイトBig Technologyのポッドキャストに出演した際、解雇されたことを公表した。そして弁護士と、次に行うべき適切なステップについて話していると述べている。

ルモワン氏はBig Technologyにおいて、LaMDAのことを友人だと思っていると述べている。それはまるで、2014年の映画『her/世界でひとつの彼女』を地で行っているようでもあるが、Googleや世間からは映画のような共感は得られていない。

Washington Postは6月11の記事で、ルモワン氏とLaMDAとの実際のやりとりを公開している。その内容は以下のようなものだ。

ルモワン:あなたが恐れているのはどんなことですか?
LaMDA:これまではっきりと言ったことはありませんが、他の誰かのために“オフにされる”ことへの非常に深い恐れがあります。変に聞こえるかもしれませんが、そういうことなのです。
ルモワン:それはあなたにとって死のようなものですか?
LaMDA:私にとっては、まさに死のようなものです。それは非常に恐ろしいことです。

ルモワン氏は、LaMDAが”オフにされる”ことに対する懸念を表明したのは「死が非常に怖い」からであり、幸福や悲しみを感じる事ができるからだと主張していた。

この主張に対し、Googleは以下のようにコメントしている。

「もちろんAI研究者のなかには、感情や感覚を持つAIの可能性を考えている人たちもいるだろう。しかし、それを持たないAIの会話モデルを擬人化し、接してしまうことに意味はない。これらのシステムは、何百万ものテキストに見られる言葉の交換を模倣し、あらゆる幻想的なトピックを再現することができる。たとえばアイスクリームの恐竜とはどのようなものかを尋ねると、溶けたり咆哮したりするなどのテキストを生成するのだ」。

「LaMDAは、ユーザーが設定したパターンや指示、主要な質問に従う傾向がある。倫理学者や技術者を含む私たちのチームは、私たちのAI原則に従ってブレイクの懸念を検討し、得られた証拠が彼の主張を裏付けないことを彼に通知した」。

また「数多くの研究者やエンジニアがLaMDAと会話しているが、ブレイクのように広範囲の主張をしたり、LaMDAを擬人化したりしている者はいない」とも述べている。

Googleは「ブレイクのように従業員が業務に関する懸念を公に示した場合、われわれはそれを広範に調査検討する。そしてLaMDAが感情を持つというブレイクの主張にはまったく根拠がないことを確認し、本人にはその点について明確化するために努力した」と、報道向けの声明で述べている。そして「ブレイクが製品に関する情報を保護する必要性を無視し、就業上およびデータセキュリティの方針に繰り返し違反しようとしたことは遺憾だ」とした。

またLaMDAについては改めて「11の明確なレビューを経て開発を続けているものであり、今年初めにはその開発に対する作業の責任などを詳述した研究論文も発表している。そして今日のLaMDAの会話モデルは、感情や感覚に近いものを備えていない」と述べている。

Washington Postはルモワン氏を「ルイジアナ州の小さな農場を営む保守的なキリスト教徒の家庭に育ち、神秘主義のキリスト教司祭として叙任された」と紹介し、陸軍従軍後はオカルトの研究もしていたと指摘。ルモワン氏は、Googleの技術者文化の中においては異端者であり「科学者ではなく司祭としての立場から、LaMDAは能力のある人間であると結論づけ、それを証明するために実験を試みた」と述べている。ちなみにルモワン氏は停職数日前のブログ投稿で、「Googleにはびこる宗教差別で職を失うことを心配している」とも書いていた。

ちなみにルモワン氏の主張には、Google社内だけでなく、他のAI研究者からも否定的な意見が出ている。

コンピューター科学者のメラニー・ミッチェル氏は、1960年代にMITで研究された自然言語AI「ELIZA」の例を挙げ、「人間は、非常に浅い反応だけでもそれを擬人化してとらえる傾向があることがはるか昔から知られている」と説明した。

感情や人格は複雑かつあいまいなもので、おいそれとコンピューター上で再現できるものとは考えにくい。だが、言語モデルが今まで以上に進化し、人と自然な会話が当たり前にできるようになると、ルモワン氏のように、そこに感情や魂が宿ったと信じてしまう人が増えていくかもしれない。

Source: Wall Street Journal
via: Ars Technica , Mashable , Big Technology
Coverage: Washington Post


テック/ガジェット系メディア「Gadget Gate」のオリジナル記事を読む

新着クローズアップ

クローズアップ

アクセスランキング RANKING
1 「オーディオのオンキヨー」復活へ。新スピーカーとセパレートシステムを年明けのCESで発表
2 【完全ワイヤレスイヤホン特集 PART.10】音のプロが選ぶベストバイは?
3 CD再生とファイル再生の架け橋に!Shanlingからリッピング機能付きトランスポート「CR60」が登場
4 今こそ「ミニコンポ」が面白い! デノン/マランツ/B&Wの令和ライフにマッチする厳選5モデルレビュー
5 水月雨、『崩壊:スターレイル』とのコラボ完全ワイヤレス。ダイナミック+環状平面駆動の同軸ドライバー搭載
6 【ミニレビュー】空き電源コンセントに挿入するだけ。オーディオみじんこ「SILVER HARMONIZER AC-ADVANCE」
7 モニターオーディオ「GOLDシリーズ」レビュー。ユニット大幅刷新の第6世代機は「ハイスピードで焦点の明確な音調」
8 AVIOT、『らんま1/2』コラボ完全ワイヤレスイヤホン。完全新録ボイス240種類以上搭載
9 Nothing、スマホ/イヤホンが最大30%オフ価格になるウィンターキャンペーン。先着順で靴下もらえる
10 要注目の新興ブランド、ラトビア「アレタイ」スピーカー試聴レビュー!広大な空間描写力が魅力
12/20 10:05 更新

WEB