今年の秋には“収穫祭”か
次の「HomePod」はどうなる? WWDCの発表内容から予想する
アップルの年次開発者会議「WWDC21」が開催され、秋に登場するAIアシスタントの「Siri(シリ)」に関連する数多くのアップデートが予告された。その内容を振り返りながら、Siriを搭載するスマートスピーカー「HomePod」の次の新製品を予想してみよう。
■iOS 15のSiriはオンデバイス処理が進化。処理が速くなる
秋に正式公開を予定するiOS 15、iPadOS 15に組み込まれるSiriは、機械学習処理の多くを、クラウドではなくデバイス単体でこなせるようになる。
iPhoneやiPadについてはA12 Bionic以降のチップを搭載する機種が、デバイス上でSiriによる音声認識を活用したハンズフリー操作をサポートする。機械学習関連の処理に特化したNeural Engineがチップに統合されていて、そのパフォーマンスを利用できる端末であることが動作条件だからだ。例年どおりであれば秋以降にアップルが発売する新しいiPhoneでは、さらにその真価を発揮するだろう。
WWDCの基調講演で実施されたデモンストレーションでは、iPhoneのデバイス上のSiriが音声リクエストを正確に認識してアプリを起動したり、機内モードやダークモードに設定を切り換えたり、タイマー・目覚ましを素速くセットする様子が披露された。例えば離陸した飛行機の中など、電波がつながらない場所でも端末の音声操作ができる。何よりも、Siriを使う際にクラウドへつながなくても良いということは、つまりユーザーのプライバシーがより強固に保護されることを意味している。
ほかにもSiriに関連するところでは、iOSとwatchOS 8の「音声入力キーボード」が利便性を増す。現在は文字を入力しないまま1分間経過するとタイムアウトして、元のソフトウェアキーボードに戻る仕様だ。それぞれの次期OSではこの時間制限が解除され、長文のテキストもゆっくり頭の中で考えながら、音声操作で最後まで入力できる。
■HomePod miniのSiriは「声紋認識」に注目
HomePod miniに搭載されるSiriも使いやすくなる。特にSiriが、ついに複数ユーザーの「声による認証」に対応することに注目だ。HomePod miniも音声リクエストの声が “誰のものか” を聞きわけ、それぞれのユーザーに対してカレンダーに登録されている情報、好みの楽曲を集めたプレイリストの提案などを返してくれるようになる。
現在HomePod miniは13の国と地域で販売されている。秋までには4つの国を加えた計17の国と地域に展開を広げるが、声によるユーザー認識は、最初は英語から始まる。続いて各エリアの言語に対応を広げる。日本語対応も遠くない未来に実現されることを期待したい。
HomePodシリーズはアップルのスマートホームIoTフレームワーク「HomeKit」に対応している。WWDCの基調講演では今年後半以降、アップル以外のメーカーから発売されるHomeKit対応のアクセサリーに、初めて音声アシスタントのSiriと「Hey Siri」機能が提供されることが明らかにされた。
基調講演に登壇した米AppleのHomeKit Software, Senior EngineerのYah Cason氏の説明によると、サードパーティのSiri対応アクセサリーが認識したユーザーの声によるリクエストは、サードパーティのクラウドを経由することなく、直接HomePodに届く。この仕組みがユーザーのプライバシーを強固に護るのだという。
この説明だけでは、サードパーティのSiri対応アクセサリーが単体で使えるのか少しわかりづらい。HomePod miniのような音声コマンドを処理する端末も買い揃えなければならないようにも聞こえる。
サードパーティによるSiri対応アクセサリーと聞いて、筆者は最初、Siriを搭載するスマートスピーカーやスマートテレビが他メーカーから発売されるのではないかと心躍らせた。グーグルやアマゾンのように、それぞれの独自のAIアシスタントをビルトインして単体で使えるサードパーティのデバイスが増えた方が、HomeKitのプラットフォーム普及に弾みを付けられそうだからだ。他社製のSiri対応製品にどのようなカテゴリのアイテムが揃うのか、機能や使い勝手に多様性を期待できるのか、今後のアナウンスに注目したい。
■iOS 15のSiriはオンデバイス処理が進化。処理が速くなる
秋に正式公開を予定するiOS 15、iPadOS 15に組み込まれるSiriは、機械学習処理の多くを、クラウドではなくデバイス単体でこなせるようになる。
iPhoneやiPadについてはA12 Bionic以降のチップを搭載する機種が、デバイス上でSiriによる音声認識を活用したハンズフリー操作をサポートする。機械学習関連の処理に特化したNeural Engineがチップに統合されていて、そのパフォーマンスを利用できる端末であることが動作条件だからだ。例年どおりであれば秋以降にアップルが発売する新しいiPhoneでは、さらにその真価を発揮するだろう。
WWDCの基調講演で実施されたデモンストレーションでは、iPhoneのデバイス上のSiriが音声リクエストを正確に認識してアプリを起動したり、機内モードやダークモードに設定を切り換えたり、タイマー・目覚ましを素速くセットする様子が披露された。例えば離陸した飛行機の中など、電波がつながらない場所でも端末の音声操作ができる。何よりも、Siriを使う際にクラウドへつながなくても良いということは、つまりユーザーのプライバシーがより強固に保護されることを意味している。
ほかにもSiriに関連するところでは、iOSとwatchOS 8の「音声入力キーボード」が利便性を増す。現在は文字を入力しないまま1分間経過するとタイムアウトして、元のソフトウェアキーボードに戻る仕様だ。それぞれの次期OSではこの時間制限が解除され、長文のテキストもゆっくり頭の中で考えながら、音声操作で最後まで入力できる。
■HomePod miniのSiriは「声紋認識」に注目
HomePod miniに搭載されるSiriも使いやすくなる。特にSiriが、ついに複数ユーザーの「声による認証」に対応することに注目だ。HomePod miniも音声リクエストの声が “誰のものか” を聞きわけ、それぞれのユーザーに対してカレンダーに登録されている情報、好みの楽曲を集めたプレイリストの提案などを返してくれるようになる。
現在HomePod miniは13の国と地域で販売されている。秋までには4つの国を加えた計17の国と地域に展開を広げるが、声によるユーザー認識は、最初は英語から始まる。続いて各エリアの言語に対応を広げる。日本語対応も遠くない未来に実現されることを期待したい。
HomePodシリーズはアップルのスマートホームIoTフレームワーク「HomeKit」に対応している。WWDCの基調講演では今年後半以降、アップル以外のメーカーから発売されるHomeKit対応のアクセサリーに、初めて音声アシスタントのSiriと「Hey Siri」機能が提供されることが明らかにされた。
基調講演に登壇した米AppleのHomeKit Software, Senior EngineerのYah Cason氏の説明によると、サードパーティのSiri対応アクセサリーが認識したユーザーの声によるリクエストは、サードパーティのクラウドを経由することなく、直接HomePodに届く。この仕組みがユーザーのプライバシーを強固に護るのだという。
この説明だけでは、サードパーティのSiri対応アクセサリーが単体で使えるのか少しわかりづらい。HomePod miniのような音声コマンドを処理する端末も買い揃えなければならないようにも聞こえる。
サードパーティによるSiri対応アクセサリーと聞いて、筆者は最初、Siriを搭載するスマートスピーカーやスマートテレビが他メーカーから発売されるのではないかと心躍らせた。グーグルやアマゾンのように、それぞれの独自のAIアシスタントをビルトインして単体で使えるサードパーティのデバイスが増えた方が、HomeKitのプラットフォーム普及に弾みを付けられそうだからだ。他社製のSiri対応製品にどのようなカテゴリのアイテムが揃うのか、機能や使い勝手に多様性を期待できるのか、今後のアナウンスに注目したい。