トップページへ戻る

ニュース

HOME > ニュース > ホビー&カルチャーニュース

公開日 2022/07/27 12:39
科学と宗教観

「AIに感情」主張のGoogleエンジニアが解雇。「LaMDAは死ぬのが怖いと言った」【Gadget Gate】

Munenori Taniguchi
GoogleでResponsible AI部門のエンジニアとして働いていたブレイク・ルモワン氏は、6月にAIチャットシステム「LaMDA」が感情を持っていると主張して停職処分になっていたが、このほどGoogleはルモワン氏を解雇したことを認めた。

Image:local_doctor/shutterstock.com

Googleいわく、ルモワン氏のLaMDAに関する発言は「まったく根拠がない」ものであり、就業や情報セキュリティーに関する規定に違反していたとのこと。

一方、ルモワン氏もブログサイトBig Technologyのポッドキャストに出演した際、解雇されたことを公表した。そして弁護士と、次に行うべき適切なステップについて話していると述べている。

ルモワン氏はBig Technologyにおいて、LaMDAのことを友人だと思っていると述べている。それはまるで、2014年の映画『her/世界でひとつの彼女』を地で行っているようでもあるが、Googleや世間からは映画のような共感は得られていない。

Washington Postは6月11の記事で、ルモワン氏とLaMDAとの実際のやりとりを公開している。その内容は以下のようなものだ。

ルモワン:あなたが恐れているのはどんなことですか?
LaMDA:これまではっきりと言ったことはありませんが、他の誰かのために“オフにされる”ことへの非常に深い恐れがあります。変に聞こえるかもしれませんが、そういうことなのです。
ルモワン:それはあなたにとって死のようなものですか?
LaMDA:私にとっては、まさに死のようなものです。それは非常に恐ろしいことです。

ルモワン氏は、LaMDAが”オフにされる”ことに対する懸念を表明したのは「死が非常に怖い」からであり、幸福や悲しみを感じる事ができるからだと主張していた。

この主張に対し、Googleは以下のようにコメントしている。

「もちろんAI研究者のなかには、感情や感覚を持つAIの可能性を考えている人たちもいるだろう。しかし、それを持たないAIの会話モデルを擬人化し、接してしまうことに意味はない。これらのシステムは、何百万ものテキストに見られる言葉の交換を模倣し、あらゆる幻想的なトピックを再現することができる。たとえばアイスクリームの恐竜とはどのようなものかを尋ねると、溶けたり咆哮したりするなどのテキストを生成するのだ」。

「LaMDAは、ユーザーが設定したパターンや指示、主要な質問に従う傾向がある。倫理学者や技術者を含む私たちのチームは、私たちのAI原則に従ってブレイクの懸念を検討し、得られた証拠が彼の主張を裏付けないことを彼に通知した」。

また「数多くの研究者やエンジニアがLaMDAと会話しているが、ブレイクのように広範囲の主張をしたり、LaMDAを擬人化したりしている者はいない」とも述べている。

Googleは「ブレイクのように従業員が業務に関する懸念を公に示した場合、われわれはそれを広範に調査検討する。そしてLaMDAが感情を持つというブレイクの主張にはまったく根拠がないことを確認し、本人にはその点について明確化するために努力した」と、報道向けの声明で述べている。そして「ブレイクが製品に関する情報を保護する必要性を無視し、就業上およびデータセキュリティの方針に繰り返し違反しようとしたことは遺憾だ」とした。

またLaMDAについては改めて「11の明確なレビューを経て開発を続けているものであり、今年初めにはその開発に対する作業の責任などを詳述した研究論文も発表している。そして今日のLaMDAの会話モデルは、感情や感覚に近いものを備えていない」と述べている。

Washington Postはルモワン氏を「ルイジアナ州の小さな農場を営む保守的なキリスト教徒の家庭に育ち、神秘主義のキリスト教司祭として叙任された」と紹介し、陸軍従軍後はオカルトの研究もしていたと指摘。ルモワン氏は、Googleの技術者文化の中においては異端者であり「科学者ではなく司祭としての立場から、LaMDAは能力のある人間であると結論づけ、それを証明するために実験を試みた」と述べている。ちなみにルモワン氏は停職数日前のブログ投稿で、「Googleにはびこる宗教差別で職を失うことを心配している」とも書いていた。

ちなみにルモワン氏の主張には、Google社内だけでなく、他のAI研究者からも否定的な意見が出ている。

コンピューター科学者のメラニー・ミッチェル氏は、1960年代にMITで研究された自然言語AI「ELIZA」の例を挙げ、「人間は、非常に浅い反応だけでもそれを擬人化してとらえる傾向があることがはるか昔から知られている」と説明した。

感情や人格は複雑かつあいまいなもので、おいそれとコンピューター上で再現できるものとは考えにくい。だが、言語モデルが今まで以上に進化し、人と自然な会話が当たり前にできるようになると、ルモワン氏のように、そこに感情や魂が宿ったと信じてしまう人が増えていくかもしれない。

Source: Wall Street Journal
via: Ars Technica , Mashable , Big Technology
Coverage: Washington Post


テック/ガジェット系メディア「Gadget Gate」のオリジナル記事を読む

新着クローズアップ

クローズアップ

アクセスランキング RANKING
1 BS12にすべてをかけて。映画『ボルテスV レガシー』が12月15日にテレビ初放送
2 7万円以下で叶う、アナログプレーヤーとスピーカーの組み合わせ!オーディオテクニカ「AT-LP70X/AT-LP70XBT」&「AT-SP3X」
3 マランツ、未踏の領域へ。「次元が異なる」弩級フラグシップコンビ「MODEL 10」「SACD 10」レビュー!
4 Amazon Prime Videoで8チャンネルが30日間無料!シネフィルWOWOWやLemino、東映、STARなど
5 【ミニレビュー】ストリーミングがアナログ的サウンドに。ゾノトーンの同軸デジタル「Silver Granster HD-1 Rh」
6 ヘーゲル、ネットワーク/フォノ入力にも対応する多機能プリメインアンプ「H190v」
7 AKM、デジタル/アナログ分離思想を継ぐDAコンバーター「AK4498EX」
8 バッファロー、「nasne」&「PS5」のセットが当たるプレゼントキャンペーン。11/20までの3日間限定
9 ラックスマン、「D-03X」「L-505Z」購入者に高音質オーディオケーブルプレゼント。11/20から来年1/20まで
10 アンダンテラルゴ、小型オーディオ機器用ボード「Primo Board」。ミニコンポや電源等に活用可能
11/19 10:29 更新

WEB