「Azure Face」一部機能へのアクセスを制限
マイクロソフト、表情から感情を推測するツールを提供中止。非科学的との批判受け【Gadget Gate】
米マイクロソフト(以下、MS)は21日、顔認識ツール「Azure Face」の一部機能へのアクセスを制限し、顔の表情から感情を推測する技術を提供中止すると発表した。
具体的には21日から新規ユーザーへの提供が中止され、既存ユーザーは2023年6月30日にアクセス権が取り消されるとのことだ。
この決定は、MSによるAI倫理ポリシーの大規模な見直しの一環とのこと。同社は「責任あるAIの基本原則」(2019年に初公開)を更新し、誰がそのサービスを使っているかを明らかにする説明責任と、これらのツールが使われる場所に対する人的な監督の強化を強調している。
こうした「感情認識」ツールは、専門家から批判を浴びてきた。普遍的とされる顔の表情が集団によって異なるばかりか、見かけの感情表現と内面の感情を同一視することは科学的ではないとの主張だ。たとえば、米ノースイースタン大学のリサ・フェルドマン・バレット心理学教授は、「しかめっ面を検出できるが、それと怒りを検出することとは別だ」と指摘していたことがある。
今後Azure Faceを顔認証に使うユーザーは、MSに「どこでどのように展開するか」を正確に申告する必要がある。あまり有害ではないユースケース(画像やビデオに含まれる顔を自動的にぼかすなど)は制限されないままとなる。
それに加えてMSは、Azure Faceの「性別、年齢、笑顔、顔の毛、髪型、化粧などの属性」を識別する機能もサービス中止とする。Azure AI部門のプリンシパルグループプロダクトマネジャー、サラ・バード氏はブログ投稿で、「感情」の定義に関する科学的コンセンサスの欠如などの問題が提起されたことや、プライバシー懸念が高まっている事情を述べている。
これらの機能は一般公開が終了される一方で、視覚に障がいのある人のためにカメラに写った風景などを読み上げるアプリ「Seeing AI」 では、本機能を続ける予定だという。
またMSは、実際の人の声を録音してAI音声を合成できる「カスタム ニューラル音声」機能にも同様の制限を導入した。この機能は、音声ディープフェイクとして使われる懸念も寄せられていた。
AIには「倫理観」がプログラムできないだけに、差別に悪用される、ないし意図せず差別を助長することにも繋がりやすい。人工知能技術が危険な方向に暴走しないように、今後も厳しいチェックが求められそうだ。
Source: Microsoft
via: The Verge
※この記事は、現在プレオープン中のテック/ガジェット系メディア「Gadget Gate」から転載したものです。
具体的には21日から新規ユーザーへの提供が中止され、既存ユーザーは2023年6月30日にアクセス権が取り消されるとのことだ。
この決定は、MSによるAI倫理ポリシーの大規模な見直しの一環とのこと。同社は「責任あるAIの基本原則」(2019年に初公開)を更新し、誰がそのサービスを使っているかを明らかにする説明責任と、これらのツールが使われる場所に対する人的な監督の強化を強調している。
こうした「感情認識」ツールは、専門家から批判を浴びてきた。普遍的とされる顔の表情が集団によって異なるばかりか、見かけの感情表現と内面の感情を同一視することは科学的ではないとの主張だ。たとえば、米ノースイースタン大学のリサ・フェルドマン・バレット心理学教授は、「しかめっ面を検出できるが、それと怒りを検出することとは別だ」と指摘していたことがある。
今後Azure Faceを顔認証に使うユーザーは、MSに「どこでどのように展開するか」を正確に申告する必要がある。あまり有害ではないユースケース(画像やビデオに含まれる顔を自動的にぼかすなど)は制限されないままとなる。
それに加えてMSは、Azure Faceの「性別、年齢、笑顔、顔の毛、髪型、化粧などの属性」を識別する機能もサービス中止とする。Azure AI部門のプリンシパルグループプロダクトマネジャー、サラ・バード氏はブログ投稿で、「感情」の定義に関する科学的コンセンサスの欠如などの問題が提起されたことや、プライバシー懸念が高まっている事情を述べている。
これらの機能は一般公開が終了される一方で、視覚に障がいのある人のためにカメラに写った風景などを読み上げるアプリ「Seeing AI」 では、本機能を続ける予定だという。
またMSは、実際の人の声を録音してAI音声を合成できる「カスタム ニューラル音声」機能にも同様の制限を導入した。この機能は、音声ディープフェイクとして使われる懸念も寄せられていた。
AIには「倫理観」がプログラムできないだけに、差別に悪用される、ないし意図せず差別を助長することにも繋がりやすい。人工知能技術が危険な方向に暴走しないように、今後も厳しいチェックが求められそうだ。
Source: Microsoft
via: The Verge
※この記事は、現在プレオープン中のテック/ガジェット系メディア「Gadget Gate」から転載したものです。