公開日 2023/06/08 11:00
まさに空間コンピュータ
50万円でも“本気”で欲しい。「Apple Vision Pro」を体験し買いたくなった5つの理由
山本 敦
筆者はメガネユーザーである。コンタクトレンズも苦手なので、ヘッドマウントディスプレイには心ときめかされるものの、自分が毎日使うデバイスになるという実感を持ったことはなかった。しかし、アップル「WWDC23」の現地取材で実機を体験した「Apple Vision Pro」は、筆者が本気で欲しくなった “空間コンピュータ” だった。
WWDC基調講演の翌日に、ジャーナリスト各自が単独でApple Vision Proを装着しながら、映像やサウンドを個室環境で体験できる製品デモンストレーションに参加する機会を得た。先に筆者の感想をひとことで言ってしまうと「感動した」。今までにない、新しいカテゴリーのデバイスに出会うことができたからだ。
Apple Vision Proは、米国では来年初旬、その他の国や地域では来年の後半からアップルの直営店とオンラインストアで販売が開始されることと、米国の販売価格が3,499ドル(2023年6月上旬の為替レートで約48万円)であることが明らかになっている。日本での販売も当然あるものと期待している。
筆者が体験したApple Vision Proの実機は開発中のプロトタイプであるという。そのため本機が発売される時点では、本体の一部仕様、およびユーザーインターフェースの細部なども変わる可能性があることをふまえて、この体験レポートを読んでもらいたい。なお現場での写真撮影が許可されていなかったことから、解説はテキストのみになることも了承いただきたい。
筆者がApple Vision Proを体験し、その実力を知り、あらためて買いたくなった5つの理由を語りたい。
まず、装着感がとても心地よかった。視力調節と、ヘッドバンドと目の周囲を覆うライトシール(遮光パッド)の調整を丁寧に行うことにより、AirPods Maxより少しだけ重い程度であろうApple Vision Proの重量がほとんど気にならない。快適なバランスで頭部にフィットする。
筆者は裸眼視力が0.1以下なので、眠る時間のほかはいつもメガネをかけながら暮らしている。コンタクトレンズは苦手なので使っていない。Apple Vision Proは「光学インサート」と呼ばれる、アップルとカール・ツァイスが共同開発した、本体にマグネットで着脱可能な、いわゆる補正レンズを装着することで、視力の低いユーザーも裸眼のまま身に着けて楽しめる。
本体を装着し、体験する前にフィッティング調整を行った。この一連のプロセスは本番どおりのものではなく、この日はデモンストレーションのための試験運用中であることをあらかじめ伝えられた。このことをふまえたうえで参考にしてほしい。
最初に光学インサートを準備するため、日ごろ使っているメガネを測定してもらった。実際には眼科医を訪ねて診察を受け、診断書をApple Store等に持ち込むプロセスになるのだろうか。
次にiPhoneを使って、Face IDを設定する要領で顔の形を測定し、iOS 16から導入されたAirPodsなど対応機器で「パーソナライズされた空間オーディオ」を体験するための耳の形状測定も行った。どちらも現状、iPhoneで行う測定の方法とやり方はほぼ一緒で、測定は1回ずつ行った。
Apple Vision Proを装着するとすぐに、本体のカメラが取り込んでいる周囲環境の映像がディスプレイに表示される。視界の真ん中を見つめながら本体のデジタルクラウンを長押しして、映像の中心がセンターに揃うように調整する。
続いて、画面に表示される6つのドットを目で追いかけながら3周する、アイトラッキングのキャリブレーションも行った。最後にハンドジェスチャーを最適化するため、本体正面のメインカメラの前に両手を広げた状態でキャプチャーする。これでセットアップは完了だ。
操作性も、期待していた以上に心地よかった。
Apple Vision Proは、本体の内側に搭載するLEDと赤外線カメラによりユーザーの目の動きをトラッキングする。つまり視線で画面上のポインターを動かせる。これに連動するかたちで、「声(Siri)」、そして「手と頭のジェスチャー」によって操作できる。キーボード入力はソフトウェアキーボードとBluetoothキーボードに対応しているが、今回のデモで試す機会はなかった。
本体を装着し、頭を動かすと、その動作に遅れることなく、本体のカメラが取り込んでいる映像が4K対応有機ELディスプレイに表示される。
今回のデモでは、2D/3D表示の写真から、ユーザーの周囲を取り囲むイマーシブな映像コンテンツまで様々な映像を体験したが、筆者が最も感動し、本機を買いたくなった理由のひとつが、この内蔵カメラによるパススルー映像がとても違和感なく自然で、美しかったことかもしれない。
2種類の異なる役割を担うAppleシリコン「M2」と「R1」が連携するデュアルチップデザインにより、実物大で表示される周囲の環境映像がほとんど遅延することなくディスプレイに表示される。ユーザーはApple Vision Proを身に着けたまま自由に動き回ることができる。気に掛けるべきは、ケーブルでつながっているバッテリーパックを携える必要があることぐらいだ。
Apple Vision ProにはLiDARスキャナやTrueDepthカメラが内蔵されている。画面の向こう側、奥行き方向に手を伸ばしてみても、映像の中で正確に距離感がつかめる。アップルが独自に制作した「インタラクティブアプリ」という、立体的に描画されるオブジェクトに触れるような体験が楽しめるコンテンツのデモでは、画面の前に差し出した指に蝶蝶が止まる演出を楽しんだ。
■まったく新しいデバイスとの遭遇に感動した
WWDC基調講演の翌日に、ジャーナリスト各自が単独でApple Vision Proを装着しながら、映像やサウンドを個室環境で体験できる製品デモンストレーションに参加する機会を得た。先に筆者の感想をひとことで言ってしまうと「感動した」。今までにない、新しいカテゴリーのデバイスに出会うことができたからだ。
Apple Vision Proは、米国では来年初旬、その他の国や地域では来年の後半からアップルの直営店とオンラインストアで販売が開始されることと、米国の販売価格が3,499ドル(2023年6月上旬の為替レートで約48万円)であることが明らかになっている。日本での販売も当然あるものと期待している。
筆者が体験したApple Vision Proの実機は開発中のプロトタイプであるという。そのため本機が発売される時点では、本体の一部仕様、およびユーザーインターフェースの細部なども変わる可能性があることをふまえて、この体験レポートを読んでもらいたい。なお現場での写真撮影が許可されていなかったことから、解説はテキストのみになることも了承いただきたい。
■イメージよりも軽くコンパクト。快適な装着感
筆者がApple Vision Proを体験し、その実力を知り、あらためて買いたくなった5つの理由を語りたい。
まず、装着感がとても心地よかった。視力調節と、ヘッドバンドと目の周囲を覆うライトシール(遮光パッド)の調整を丁寧に行うことにより、AirPods Maxより少しだけ重い程度であろうApple Vision Proの重量がほとんど気にならない。快適なバランスで頭部にフィットする。
筆者は裸眼視力が0.1以下なので、眠る時間のほかはいつもメガネをかけながら暮らしている。コンタクトレンズは苦手なので使っていない。Apple Vision Proは「光学インサート」と呼ばれる、アップルとカール・ツァイスが共同開発した、本体にマグネットで着脱可能な、いわゆる補正レンズを装着することで、視力の低いユーザーも裸眼のまま身に着けて楽しめる。
本体を装着し、体験する前にフィッティング調整を行った。この一連のプロセスは本番どおりのものではなく、この日はデモンストレーションのための試験運用中であることをあらかじめ伝えられた。このことをふまえたうえで参考にしてほしい。
最初に光学インサートを準備するため、日ごろ使っているメガネを測定してもらった。実際には眼科医を訪ねて診察を受け、診断書をApple Store等に持ち込むプロセスになるのだろうか。
次にiPhoneを使って、Face IDを設定する要領で顔の形を測定し、iOS 16から導入されたAirPodsなど対応機器で「パーソナライズされた空間オーディオ」を体験するための耳の形状測定も行った。どちらも現状、iPhoneで行う測定の方法とやり方はほぼ一緒で、測定は1回ずつ行った。
Apple Vision Proを装着するとすぐに、本体のカメラが取り込んでいる周囲環境の映像がディスプレイに表示される。視界の真ん中を見つめながら本体のデジタルクラウンを長押しして、映像の中心がセンターに揃うように調整する。
続いて、画面に表示される6つのドットを目で追いかけながら3周する、アイトラッキングのキャリブレーションも行った。最後にハンドジェスチャーを最適化するため、本体正面のメインカメラの前に両手を広げた状態でキャプチャーする。これでセットアップは完了だ。
■アイトラッキングが正確。ジェスチャー操作が楽しい
操作性も、期待していた以上に心地よかった。
Apple Vision Proは、本体の内側に搭載するLEDと赤外線カメラによりユーザーの目の動きをトラッキングする。つまり視線で画面上のポインターを動かせる。これに連動するかたちで、「声(Siri)」、そして「手と頭のジェスチャー」によって操作できる。キーボード入力はソフトウェアキーボードとBluetoothキーボードに対応しているが、今回のデモで試す機会はなかった。
本体を装着し、頭を動かすと、その動作に遅れることなく、本体のカメラが取り込んでいる映像が4K対応有機ELディスプレイに表示される。
今回のデモでは、2D/3D表示の写真から、ユーザーの周囲を取り囲むイマーシブな映像コンテンツまで様々な映像を体験したが、筆者が最も感動し、本機を買いたくなった理由のひとつが、この内蔵カメラによるパススルー映像がとても違和感なく自然で、美しかったことかもしれない。
2種類の異なる役割を担うAppleシリコン「M2」と「R1」が連携するデュアルチップデザインにより、実物大で表示される周囲の環境映像がほとんど遅延することなくディスプレイに表示される。ユーザーはApple Vision Proを身に着けたまま自由に動き回ることができる。気に掛けるべきは、ケーブルでつながっているバッテリーパックを携える必要があることぐらいだ。
Apple Vision ProにはLiDARスキャナやTrueDepthカメラが内蔵されている。画面の向こう側、奥行き方向に手を伸ばしてみても、映像の中で正確に距離感がつかめる。アップルが独自に制作した「インタラクティブアプリ」という、立体的に描画されるオブジェクトに触れるような体験が楽しめるコンテンツのデモでは、画面の前に差し出した指に蝶蝶が止まる演出を楽しんだ。
- トピック
- APPLE
- ヘッドマウントディスプレイ