ガジェットしかしM2 Ultraは大規模言語モデルの訓練に売り込み
アップル、WWDCプレゼンで「AI」という言葉を一度も使わず
今年5月の「Google I/O」では、Googleのスンダー・ピチャイCEOらが2時間のイベントの中で「AI」を連呼していた(140回以上とのこと)。ChatGPTほか生成系AIが全盛のため当然とも思われるが、そんななかアップルが開発者向けイベントWWDC 2023にて一度も「AI」という用語を使わなかったことが注目を集めている。
アップルのプレゼンターらはAIの存在を無視したわけではなく、「機械学習」や「ML」といった言葉にフォーカスしていた格好だ。たとえばiOS 17のデモでは、ソフトウェアエンジニアリング担当SVPのクレイグ・フェデリギ氏が、文字入力の自動修正や音声入力の改良に機械学習を活用していると語っていた。
iOS 17の標準キーボードでは、単語予測の最先端にあるTransformer言語モデルを活用し、ユーザーがタイプ入力するたびに体験と精度が向上するという。この機能が常時実行できるのも、Appleシリコン(独自開発チップ)の処理能力あればこそ……といった趣旨が主張されていた。
ここで注目すべきは、Transformer言語モデルに何度か言及されていたことだ。このAIモデルは画像生成のDALL-EやチャットボットChatGPTなど、最近の生成系AIにおける基礎となっている技術である。
iOS 17に搭載されたアップル独自のTransformerモデルは、タイプ入力ばかりか、文レベルの自動修正によってより多くの種類の文法ミスまで修正するという。さらにユーザーが入力を始めると予測テキストの提案がインライン表示され、スペースキーをタップするだけで単語全体の追加や文を最後まで簡単に入力できるとのこと。
テキスト入力は一見して地味な要素ながら、日常的に頻繁に利用するため、実はスマートフォンのユーザビリティを左右しやすい。「iPhoneは多少ミスタイプをしても自動修正が優秀なため使いやすい」との声がよく聞こえるが、それに磨きがかけられるようだ。
ほかiPadのロック画面の新機能やPDF機能(PDF内のフィールドを識別し、連絡先の名前や住所、メールなどの情報を自動入力ですばやく記入できる)、AirPodsの適応型オーディオ(時間の経過とともにユーザーの視聴環境の好みを理解する)、Apple Watchのスマートスタック(必要なときに関連情報を表示する)ほか、次期OSの新機能では機械学習への言及が目立っている。
またiOS 17の新たなアプリ「ジャーナル」でも、「デバイス上の機械学習を活用してパーソナライズされた候補が表示され、ユーザーに日記をつけるきっかけを与える」という具合だ。そしてAR/VRヘッドセット「Apple Vision Pro」のデモでも、FaceTime通話中に映し出される3Dアバターや等も「わが社の最先端の機械学習技術を駆使して、斬新なソリューションを生み出した」とのこと。
これらを総合すると、徹底してAIという言葉を避けている印象を受ける。あくまでハードウェアの使いやすさを支える裏方的な存在であり、それ自体が商品ではないということだろう。
とはいえ、最新チップ「M2 Ultra」のプレゼンでは少し様子が違った。「M1 Ultraの50%増となる192GBの膨大なユニファイドメモリ(CPUとGPUがRAMを共有)をサポートし、他のチップでは不可能なことを可能にする。たとえば、最も強力なディスクリートGPUではメモリ不足で処理できないような大規模なTransformerモデルのような、大規模なMLワークロードを1つのシステムで訓練できる」として、直接的に生成系AIに言及していたのだ。
実際、一部のAI専門家が興奮を露わにしている。たとえばペリー・E・メッツガー氏は「偶然か意図的かは別として、Appleシリコンのユニファイドメモリ・アーキテクチャは、ハイエンドMacが巨大AIモデルの実行やAI研究のための真に素晴らしいマシンになったことを意味している。この価格帯でGPUがアクセス可能な192GBものRAMを提供するシステムは、他にあまり例がない」と述べている。
つまりアップルも生成系AIブームを無視しているわけではないが、クラウドサービスとして提供するのではなく、Macというハードウェアの新たな販路として注目しているようだ。その場合、NVIDIA H100のようにAIに特化されたGPUと比べてM2 Ultraがどう評価されるのか、興味深いところだ。
Source: Apple
via: Ars Technica
アップルのプレゼンターらはAIの存在を無視したわけではなく、「機械学習」や「ML」といった言葉にフォーカスしていた格好だ。たとえばiOS 17のデモでは、ソフトウェアエンジニアリング担当SVPのクレイグ・フェデリギ氏が、文字入力の自動修正や音声入力の改良に機械学習を活用していると語っていた。
iOS 17の標準キーボードでは、単語予測の最先端にあるTransformer言語モデルを活用し、ユーザーがタイプ入力するたびに体験と精度が向上するという。この機能が常時実行できるのも、Appleシリコン(独自開発チップ)の処理能力あればこそ……といった趣旨が主張されていた。
ここで注目すべきは、Transformer言語モデルに何度か言及されていたことだ。このAIモデルは画像生成のDALL-EやチャットボットChatGPTなど、最近の生成系AIにおける基礎となっている技術である。
iOS 17に搭載されたアップル独自のTransformerモデルは、タイプ入力ばかりか、文レベルの自動修正によってより多くの種類の文法ミスまで修正するという。さらにユーザーが入力を始めると予測テキストの提案がインライン表示され、スペースキーをタップするだけで単語全体の追加や文を最後まで簡単に入力できるとのこと。
テキスト入力は一見して地味な要素ながら、日常的に頻繁に利用するため、実はスマートフォンのユーザビリティを左右しやすい。「iPhoneは多少ミスタイプをしても自動修正が優秀なため使いやすい」との声がよく聞こえるが、それに磨きがかけられるようだ。
ほかiPadのロック画面の新機能やPDF機能(PDF内のフィールドを識別し、連絡先の名前や住所、メールなどの情報を自動入力ですばやく記入できる)、AirPodsの適応型オーディオ(時間の経過とともにユーザーの視聴環境の好みを理解する)、Apple Watchのスマートスタック(必要なときに関連情報を表示する)ほか、次期OSの新機能では機械学習への言及が目立っている。
またiOS 17の新たなアプリ「ジャーナル」でも、「デバイス上の機械学習を活用してパーソナライズされた候補が表示され、ユーザーに日記をつけるきっかけを与える」という具合だ。そしてAR/VRヘッドセット「Apple Vision Pro」のデモでも、FaceTime通話中に映し出される3Dアバターや等も「わが社の最先端の機械学習技術を駆使して、斬新なソリューションを生み出した」とのこと。
これらを総合すると、徹底してAIという言葉を避けている印象を受ける。あくまでハードウェアの使いやすさを支える裏方的な存在であり、それ自体が商品ではないということだろう。
とはいえ、最新チップ「M2 Ultra」のプレゼンでは少し様子が違った。「M1 Ultraの50%増となる192GBの膨大なユニファイドメモリ(CPUとGPUがRAMを共有)をサポートし、他のチップでは不可能なことを可能にする。たとえば、最も強力なディスクリートGPUではメモリ不足で処理できないような大規模なTransformerモデルのような、大規模なMLワークロードを1つのシステムで訓練できる」として、直接的に生成系AIに言及していたのだ。
実際、一部のAI専門家が興奮を露わにしている。たとえばペリー・E・メッツガー氏は「偶然か意図的かは別として、Appleシリコンのユニファイドメモリ・アーキテクチャは、ハイエンドMacが巨大AIモデルの実行やAI研究のための真に素晴らしいマシンになったことを意味している。この価格帯でGPUがアクセス可能な192GBものRAMを提供するシステムは、他にあまり例がない」と述べている。
つまりアップルも生成系AIブームを無視しているわけではないが、クラウドサービスとして提供するのではなく、Macというハードウェアの新たな販路として注目しているようだ。その場合、NVIDIA H100のようにAIに特化されたGPUと比べてM2 Ultraがどう評価されるのか、興味深いところだ。
Source: Apple
via: Ars Technica