論文の概要: GazeProphet: Software-Only Gaze Prediction for VR Foveated Rendering
- arxiv url: http://arxiv.org/abs/2508.13546v2
- Date: Thu, 09 Oct 2025 12:07:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-10 15:34:28.634183
- Title: GazeProphet: Software-Only Gaze Prediction for VR Foveated Rendering
- Title(参考訳): Gaze Prophet:VR体験レンダリングのためのソフトウェアのみのゲイズ予測
- Authors: Farhaan Ebadulla, Chiraag Mudlapur, Gaurav BV,
- Abstract要約: ファブリケートレンダリングは、バーチャルリアリティーアプリケーションにおける計算要求を大幅に減少させる。
現在のアプローチは高価なハードウェアベースのアイトラッキングシステムを必要とする。
本稿では,VR環境における視線位置を予測するためのソフトウェアのみのアプローチであるGazeProphetを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Foveated rendering significantly reduces computational demands in virtual reality applications by concentrating rendering quality where users focus their gaze. Current approaches require expensive hardware-based eye tracking systems, limiting widespread adoption due to cost, calibration complexity, and hardware compatibility constraints. This paper presents GazeProphet, a software-only approach for predicting gaze locations in VR environments without requiring dedicated eye tracking hardware. The approach combines a Spherical Vision Transformer for processing 360-degree VR scenes with an LSTM-based temporal encoder that captures gaze sequence patterns. A multi-modal fusion network integrates spatial scene features with temporal gaze dynamics to predict future gaze locations with associated confidence estimates. Experimental evaluation on a comprehensive VR dataset demonstrates that GazeProphet achieves a median angular error of 3.83 degrees, outperforming traditional saliency-based baselines by 24% while providing reliable confidence calibration. The approach maintains consistent performance across different spatial regions and scene types, enabling practical deployment in VR systems without additional hardware requirements. Statistical analysis confirms the significance of improvements across all evaluation metrics. These results show that software-only gaze prediction can work for VR foveated rendering, making this performance boost more accessible to different VR platforms and apps.
- Abstract(参考訳): ファブリックレンダリングは、ユーザーが視線を集中するレンダリング品質を集中させることで、仮想現実アプリケーションにおける計算要求を大幅に削減する。
現在のアプローチでは、高価なハードウェアベースのアイトラッキングシステムが必要であり、コスト、キャリブレーションの複雑さ、ハードウェア互換性の制約により広く採用されることが制限されている。
本稿では、専用の視線追跡ハードウェアを必要とせず、VR環境における視線位置を予測するためのソフトウェアのみのアプローチであるGazeProphetを提案する。
このアプローチでは、360度VRシーンを処理するSpherical Vision Transformerと、視線シーケンスパターンをキャプチャするLSTMベースの時間エンコーダを組み合わせる。
マルチモーダル融合ネットワークは、空間的景観特徴と時間的視線力学を統合し、関連する信頼度推定で将来の視線位置を予測する。
総合的なVRデータセットに対する実験的評価は、GazeProphetが中央値の角度誤差3.83度を達成し、信頼性のキャリブレーションを提供しながら、従来の唾液ベースのベースラインを24%上回っていることを示している。
このアプローチは、異なる空間領域とシーンタイプで一貫したパフォーマンスを維持し、追加のハードウェア要件なしにVRシステムに実用的な展開を可能にする。
統計分析は、すべての評価指標における改善の重要性を裏付ける。
これらの結果から、ソフトウェアのみの視線予測がVRの望ましくないレンダリングに有効であることが分かる。
関連論文リスト
- Gaze Prediction in Virtual Reality Without Eye Tracking Using Visual and Head Motion Cues [3.4383905541567583]
本稿では,HMD(Head-Mounted Display)モーション信号と映像フレームから派生した視覚的サリエンシキューを組み合わせた新しい視線予測フレームワークを提案する。
本手法では,軽量な唾液エンコーダであるUniSalを用いて視覚的特徴を抽出し,その特徴をHMDモーションデータと融合させて時系列予測モジュールで処理する。
EHTaskデータセットの実験は、商用VRハードウェアへの展開とともに、私たちのアプローチがCenter-of-HMDやMean Gazeといったベースラインを一貫して上回っていることを示している。
論文 参考訳(メタデータ) (2026-01-26T11:26:27Z) - EyeTheia: A Lightweight and Accessible Eye-Tracking Toolbox [0.0]
EyeTheiaは、Webカメラによる視線推定のための軽量でオープンなディープラーニングパイプラインである。
標準のラップトップウェブカメラのみを使用してリアルタイムの視線追跡を可能にする。
MediaPipeベースのランドマーク抽出と、iTrackerにインスパイアされた畳み込みニューラルネットワークと、オプションのユーザ固有の微調整を組み合わせたものだ。
論文 参考訳(メタデータ) (2026-01-09T19:49:01Z) - GazeProphetV2: Head-Movement-Based Gaze Prediction Enabling Efficient Foveated Rendering on Mobile VR [0.0]
本稿では,時間的視線パターン,頭部運動データ,視覚シーン情報を組み合わせたVR視線予測へのマルチモーダルアプローチを提案する。
22のVRシーンと5.3Mの視線サンプルにまたがるデータセットによる評価は、モダリティを組み合わせる際の予測精度の改善を示している。
クロスシーンの一般化テストは、予測された視線軌跡における93.1%の検証精度と時間的整合性を示す。
論文 参考訳(メタデータ) (2025-11-25T06:55:39Z) - ESCA: Enabling Seamless Codec Avatar Execution through Algorithm and Hardware Co-Optimization for Virtual Reality [8.437724028285682]
フォトコーデックアバター(PCA)は、VR(Virtual Reality)環境のための高忠実な人間の顔レンダリングを生成する。
本稿では,コーデックアバターモデルに適した効率的な後トレーニング量子化(PTQ)手法を提案する。
エッジVRプラットフォーム上でPCA推論を高速化するフルスタック最適化フレームワークであるESCAを紹介する。
論文 参考訳(メタデータ) (2025-10-27T02:31:20Z) - SeedVR2: One-Step Video Restoration via Diffusion Adversarial Post-Training [82.68200031146299]
実データに対する対角的VRトレーニングを行うセドVR2と呼ばれる一段階拡散型VRモデルを提案する。
単一ステップで高精細度VRを扱うために、モデルアーキテクチャとトレーニング手順の両方にいくつかの拡張を導入する。
論文 参考訳(メタデータ) (2025-06-05T17:51:05Z) - VRSplat: Fast and Robust Gaussian Splatting for Virtual Reality [47.738522999465864]
われわれはVRSplatを導入し、3DGSの最近の進歩を総合してVRの難題に挑戦する。
VRSplatは、最新のVRアプリケーションをサポートし、ポップアップやステレオ破壊フローターを排除しながら72以上のFPSを達成することができる、最初の、体系的に評価された3DGSアプローチである。
論文 参考訳(メタデータ) (2025-05-15T10:17:48Z) - Towards Consumer-Grade Cybersickness Prediction: Multi-Model Alignment for Real-Time Vision-Only Inference [3.4667973471411853]
サイバーシックネスは没入型バーチャルリアリティ(VR)の普及の大きな障害である
我々は、パーソナライズされたサイバーシックネス予測のためのスケーラブルでデプロイ可能なフレームワークを提案する。
当社のフレームワークは,コンシューマレベルのVRプラットフォームとの統合に理想的なリアルタイムアプリケーションをサポートしています。
論文 参考訳(メタデータ) (2025-01-02T11:41:43Z) - Extrapolated Urban View Synthesis Benchmark [53.657271730352214]
光シミュレーターは視覚中心型自動運転車(AV)の訓練と評価に不可欠である
中心となるのはノベルビュー合成(英語版)(NVS)であり、これはAVの広範かつ連続的なポーズ分布に対応するために、様々な目に見えない視点を生成する能力である。
近年の3次元ガウス・スプラッティングのような放射場の発展は、リアルタイムなリアルタイムレンダリングを実現し、大規模ドライビングシーンのモデリングに広く利用されている。
自動運転車と都市ロボットシミュレーション技術の進歩を支援するために、データを公開します。
論文 参考訳(メタデータ) (2024-12-06T18:41:39Z) - VR-Splatting: Foveated Radiance Field Rendering via 3D Gaussian Splatting and Neural Points [4.962171160815189]
本稿では,パフォーマンススイートスポットに関する両点描画方向の長所を結合した,新しいハイブリッドアプローチを提案する。
焦点のみの場合、我々は小さなピクセルフットプリントのために畳み込みニューラルネットワークでニューラルネットワークを使用し、鋭く詳細な出力を提供する。
提案手法は,標準的なVR対応3DGS構成と比較して,シャープネスとディテールが向上することを確認した。
論文 参考訳(メタデータ) (2024-10-23T14:54:48Z) - Self-Avatar Animation in Virtual Reality: Impact of Motion Signals Artifacts on the Full-Body Pose Reconstruction [13.422686350235615]
本研究の目的は,自己アバターのフルボディポーズの再現に対する影響を計測することである。
テキストYOLOv8のポーズ推定から推定した3次元動画像と3次元動画像座標を用いて動画像再構成誤差を解析する。
論文 参考訳(メタデータ) (2024-04-29T12:02:06Z) - Deep Learning for Real Time Satellite Pose Estimation on Low Power Edge
TPU [58.720142291102135]
本稿では,ニューラルネットワークアーキテクチャを利用したポーズ推定ソフトウェアを提案する。
我々は、低消費電力の機械学習アクセラレーターが宇宙での人工知能の活用を可能にしていることを示す。
論文 参考訳(メタデータ) (2022-04-07T08:53:18Z) - Towards Scale Consistent Monocular Visual Odometry by Learning from the
Virtual World [83.36195426897768]
仮想データから絶対スケールを取得するための新しいフレームワークであるVRVOを提案する。
まず、モノクロ実画像とステレオ仮想データの両方を用いて、スケール対応の異種ネットワークをトレーニングする。
結果として生じるスケール一貫性の相違は、直接VOシステムと統合される。
論文 参考訳(メタデータ) (2022-03-11T01:51:54Z) - Meta-Reinforcement Learning for Reliable Communication in THz/VLC
Wireless VR Networks [157.42035777757292]
屋内テラヘルツ(THz)/可視光通信(VLC)無線ネットワークにおいて,仮想現実(VR)サービスの品質向上の問題について検討した。
小型基地局(sbss)は高品質のvr画像をthzバンド経由でvrユーザーに送信し、発光ダイオード(led)は正確な屋内測位サービスを提供する。
研究したTHz/VLC無線VRネットワークのエネルギー消費を制御するには、VLCアクセスポイント(VAP)を選択的にオンにする必要がある。
論文 参考訳(メタデータ) (2021-01-29T15:57:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。