Apple Vision Pro の完全な仕様、機能、詳細

ブログ

ホームページホームページ / ブログ / Apple Vision Pro の完全な仕様、機能、詳細

Sep 16, 2023

Apple Vision Pro の完全な仕様、機能、詳細

Oggi Apple ha finalmente annunciato Vision Pro, il suo “computer spaziale” da 3.500 dollari

本日、Apple はついに Vision Pro、2024 年発売予定の 3,500 ドルの「空間コンピュータ」を発表しました。発表された仕様と機能の概要は次のとおりです。

Vision Pro は技術的には不透明ですが、高解像度のカラー カメラを使用して現実世界を表示し、前面のディスプレイを使用して他の人に目を表示します。

これは、AR/VR 製品史上最高の解像度とほとんどのセンサーを搭載した超ハイエンド ヘッドセットです。 これまでに出荷されたことのない新機能が導入されており、VisionOS は視線追跡と手の追跡を融合して、2D、AR、VR の間の境界線を再考しながら直感的な入力を実現します。

Vision Proは、湾曲した「3次元成形」合わせガラスフロントプレートを支えるカスタムアルミニウム合金フレームを採用し、薄型デザインを実現しています。

Vision Pro を比較的軽量に保っているのは、バッテリーがヘッドセットから分離されているためです。 Meta Quest Pro や Pico 4 などの他のヘッドセットには、ストラップの後部にバッテリーが搭載されていますが、Apple の設計では、ヘッドバンドの左側にある磁気コネクタに外部バッテリーを接続することで、バッテリーを頭から完全に取り外します。

Apple は、外部バッテリーは次のテスト条件下で 2 時間持続したと主張しています。

あるいは、バッテリーを USB-C 電源に接続することで、Vision Pro を永続的に使用することもできます。 Appleは、どれくらいの電力が必要かについてまだ詳細を明らかにしていない。

Vision Pro には、合計 12 台のカメラ、TrueDepth センサー、LiDAR センサー、および 6 つのマイクが搭載されています。

12 台のカメラのうち 6 台はフロントガラスの下にあります。

これらのうち 2 つは、ヘッドセットの実世界のパススルー ビューに高解像度のカラーを提供し、「1 秒あたり 10 億以上のカラー ピクセル」をストリーミングします。

他の 4 つの前面カメラはヘッドセットの位置追跡に使用され、おそらく魚眼レンズを備えています。

TrueDepth センサーの目的の 1 つは、手の追跡です。 Appleは、ハンドトラッキングの品質を「非常に正確なので、不器用なハードウェアコントローラーを必要とすることから手を完全に解放します」と説明しています。

Vision Pro にはいかなる種類の追跡コントローラーもありませんが、ゲームパッドを使用して仮想画面上で従来の iPad ゲームをプレイすることはサポートされています。

LiDAR センサーは、他のフロント カメラと連携して、環境のリアルタイム 3D メッシュ化を実行するために使用されます。

アプリはこのメッシュを利用できますが、実際のカメラ データにはアクセスできません。 Apple が挙げた使用例の 1 つは、仮想オブジェクトが実際のテーブルに影を落とすことでしたが、これは可能なことの表面をなぞっただけです。

2 台の下向きカメラがあなたの顔を追跡し、その横にある 4 台の内部 IR カメラがレンズの周りの LED イルミネーターの助けを借りてあなたの目を追跡します。

Vision Pro の視線追跡は、認証、中心窩レンダリング、FaceTime アバターの駆動という 3 つの目的を果たします。

Apple は、他のデバイスの TouchID と FaceID の命名スキームに従って、新しい虹彩スキャン認証を OpticID と呼んでいます。 OpticID は Vision Pro のロックを解除する方法であり、Apple Pay での購入やパスワードの自動入力にも使用できます。 TouchID や FaceID と同様、OpticID を利用する生体認証データは、Secure Enclave Processor によってデバイス上で処理されます。

中心窩レンダリングは、目が現在見ているディスプレイの小さな領域のみをフル解像度でレンダリングする技術で、残りの部分は低解像度であるため、パフォーマンスが向上します。 解放された GPU リソースは、パフォーマンスの向上、レンダリング解像度の向上、またはグラフィック設定の向上に使用できます。 これは、私たちの目は中心窩の中心部分のみを高解像度で見るという事実を利用しています。

最後に、視線追跡を下向きカメラと組み合わせてリアルタイムで顔の表情を追跡し、Apple の写真のようにリアルなアバターであ​​る FaceTime ペルソナを駆動します。 Meta はこれに向けた研究を 4 年以上にわたって披露してきましたが、Meta の研究と同じ品質ではないにせよ、Apple が最初に出荷することになりそうです。

これらすべてのカメラ、センサー、マイクからの入力を統合するために、Apple は R1 と呼ばれるカスタム チップを開発しました。

Apple は、R1 は「ラグを事実上解消し、12 ミリ秒以内に新しい画像をディスプレイにストリーミングする」と主張しています。

比較のために、フランスのヘッドセット新興企業 Lynx の創設者は、Meta Quest Pro のパススルー遅延は 35 ~ 60 ミリ秒であると主張しています。 ただし、これが同等の比較であるかどうかは不明です。

Vision Pro には物理コントロールが 2 つだけあり、両方とも上部にあります。 いつでも「空間動画」「空間写真」を撮影できるボタンと、デジタルクラウン。

Digital Crown を押すと、システムのホームビューが表示されます。 ただし、回転させることで、完全な AR から完全な VR まで、没入感のレベルを制御できます。 たとえば半分まで進むと、目の前に VR が表示され、後ろに AR が表示されます。

Meta Quest や Pico 4 などの既存のヘッドセットでは、パススルーは切り替えオプションであり、完全な没入か非没入かを選択する必要があります。 Apple は代わりに、実際の環境とどのように関わるかをユーザーが正確に選択できるようにしたいと考えています。

Vision Pro の完全にユニークな機能は、部屋の中の他の人にあなたの目を示し、あなたがどの程度彼らを意識しているかを示す外部ディスプレイです。 Apple はこのテクノロジーを EyeSight と呼んでいます。

AR アプリを使用している場合、EyeSight は目の前に色付きのパターンを表示し、VR アプリを使用している場合、目は見えずにパターンのみを表示します。

誰かがあなたに近づくと、Vision Pro はその人の切り抜きを表示し、EyeSight はあなたの目をその人に明らかにします。

EyeSight はレンチキュラー レンズを備えた曲面 OLED パネルを使用しているため、人々がヘッドセットを見ている角度に関係なく、目の遠近感が正しく見えます。 Appleはこれが事実上「デバイスを透明に見せる3Dディスプレイ」であると主張している。

Apple は、Vision Pro の「基本的な設計目標」の 1 つとして、ユーザーが「周囲の人々から決して孤立しない」ことを説明しており、同社はそれが Meta Quest のような完全に不透明なヘッドセットとの明確な差別化要因であると考えています。

Vision Pro は、前例のないピクセル密度を備えたデュアル マイクロ OLED パネルを備えています。 Appleによれば、それぞれのピクセルは「切手サイズ」だが、合わせて2,300万ピクセルあるという。

Apple は正確な解像度を明らかにしませんでしたが、合計 2,300 万ピクセルということは、マーケティング レンダリングで示される正方形のアスペクト比の場合、片目あたりの解像度が約 3400 × 3400、または 7:6 アスペクト比の場合約 3680 × 3140 であることを示唆しています。

しかし、実際にはディスプレイの実際のアスペクト比はわかっておらず、Apple の 2,300 万という数字はレンズに見えるピクセルだけをカウントしているとも考えられます。

AppleはVision Proのディスプレイが広色域と高ダイナミックレンジをサポートしていることを認めたが、ピーク輝度などの詳細な仕様は明らかにしなかった。

Vision Pro は、最近の Mac で使用されているのと同じ Apple Silicon M2 チップを搭載しています。

Appleによれば、これにより「比類のないスタンドアロンパフォーマンス」が実現され、Vision Proは「快適な温度を維持し、事実上無音で動作」できるようになるという。

Meta Quest 3 が使用する次世代 Qualcomm Snapdragon チップセットの噂の仕様と比較すると、Apple の M2 は、シングルスレッド CPU パフォーマンスが約 30 ~ 50%、マルチスレッドパフォーマンスが約 80%、GPU パフォーマンスが約 5 ~ 15% 向上するはずです。力。

ただし、各ヘッドセットのプロセッサの正確なクロック速度がわからない場合、これは単なる推測にすぎません。とても大まかな比較。 また、実際には、Vision Pro は中心窩レンダリングを使用するため、Quest 3 よりも効率的に GPU パワーを利用できるはずです。

visionOS は、Vision Pro 用の Apple のカスタム「空間オペレーティング システム」であり、おそらく Vision シリーズの将来のヘッドセットにも使用されます。

Apple は、visionOS を「よく知られているが、画期的なもの」と表現しています。 指のフリックでスクロールできるフローティング 2D アプリが表示されます。 メニュー項目は目で見て選択し、指でクリックします。

Notes、Messages、Safari、Keynote、Photos、FaceTime、Apple Music など、Apple のファーストパーティ アプリやサービスの多くは、visionOS で利用できます。

Apple のアプリの多くは、単に 2D フレーム内に存在するのではなく、「空間的になり」、周囲のスペースを占有します。 たとえば、FaceTime グループ通話では、各人の Web カメラのビューが独自の浮動四角形になり、各人から空間オーディオが聞こえます。 Apple はまた、メッセージから 3D モデルを現実空間に引き出すことができる例を挙げました。

Vision Pro を使用すると、Mac のディスプレイを見つめるだけでワイヤレスで巨大な仮想ディスプレイに拡張することもできます。

visionOS の主な焦点は、Apple のライブラリから奥行きのある 3D 映画の視聴のサポートを含む、巨大な仮想スクリーンで映画やテレビ番組を視聴することです。

Vision Pro の側面には「オーディオ ポッド」があり、それぞれに 2 つのドライバーが搭載されています。 Apple はこれを「これまでで最も先進的な空間オーディオ システム」と表現しています。

TrueDepth FaceID センサーを搭載した iPhone をお持ちの場合は、顔をスキャンしてパーソナライズされた空間オーディオを有効にすることができます。システムは、可能な限り正確な空間オーディオを実現するために、ユーザーの頭と耳の形状に合わせてサウンドを調整します。

Vision Pro は、オーディオ レイ トレーシングと呼ばれる技術も使用しており、空間の特徴と素材をスキャンして「サウンドを部屋に正確に一致させる」ことができます。 この技術はAppleのHomePodスピーカーでも使用されています。

Appleは、Vision Proの購入者は「音が周囲の環境から来ていると完全に確信する」だろうと主張している。

Apple Vision Proは、2024年初頭に米国で3500ドルから発売される予定だ。 オンラインおよびApple Storeで購入可能になります。

Appleは、「来年後半」により多くの国がVision Proを導入すると述べているが、具体的にどの国かは明らかにしていない。

Apple Vision Pro Meta Quest Pro の起動 オペレーティング システム レンズ調整 ディスプレイ タイプ 総ピクセル数 HDR チップセット カラー カメラ 深度センサー 目と顔の追跡 バッテリーの位置 バッテリー寿命 フロント ディスプレイ マイク 認証 追跡コントローラー 価格 ヘッドセットの総ピクセル数