論文の概要: VRGaussianAvatar: Integrating 3D Gaussian Avatars into VR
- arxiv url: http://arxiv.org/abs/2602.01674v1
- Date: Mon, 02 Feb 2026 05:42:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:33.931645
- Title: VRGaussianAvatar: Integrating 3D Gaussian Avatars into VR
- Title(参考訳): VRGaussian Avatar:3DガウスアバターをVRに統合
- Authors: Hail Song, Boram Yoon, Seokhwan Yang, Seoyoung Kang, Hyunjeong Kim, Henning Metzmacher, Woontack Woo,
- Abstract要約: VRGaussian Avatarは、ヘッドマウントディスプレイ(HMD)信号のみを使用してリアルタイムのフルボディ3D Splatting (3DGS)アバターを可能にする。
VR Frontendは、逆キネマティクスを使用して、フルボディのポーズを推定し、結果のポーズとステレオカメラパラメータをバックエンドにストリームする。
GAバックエンドは、単一の画像から再構成された3DGSアバターを立体的にレンダリングする。
- 参考スコア(独自算出の注目度): 10.447124865294017
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We present VRGaussianAvatar, an integrated system that enables real-time full-body 3D Gaussian Splatting (3DGS) avatars in virtual reality using only head-mounted display (HMD) tracking signals. The system adopts a parallel pipeline with a VR Frontend and a GA Backend. The VR Frontend uses inverse kinematics to estimate full-body pose and streams the resulting pose along with stereo camera parameters to the backend. The GA Backend stereoscopically renders a 3DGS avatar reconstructed from a single image. To improve stereo rendering efficiency, we introduce Binocular Batching, which jointly processes left and right eye views in a single batched pass to reduce redundant computation and support high-resolution VR displays. We evaluate VRGaussianAvatar with quantitative performance tests and a within-subject user study against image- and video-based mesh avatar baselines. Results show that VRGaussianAvatar sustains interactive VR performance and yields higher perceived appearance similarity, embodiment, and plausibility. Project page and source code are available at https://vrgaussianavatar.github.io.
- Abstract(参考訳): 本稿では,ヘッドマウントディスプレイ(HMD)トラッキング信号のみを用いて,リアルタイムのフルボディ3Dガウスアバター(3DGS)を実現するシステムであるVRGaussianAvatarを提案する。
このシステムは、VRフロントエンドとGAバックエンドを備えた並列パイプラインを採用している。
VRフロントエンドは、逆キネマティクスを使用してフルボディのポーズを推定し、結果のポーズとステレオカメラパラメータをバックエンドにストリームする。
GAバックエンドは、単一の画像から再構成された3DGSアバターを立体的にレンダリングする。
ステレオレンダリング効率を向上させるために,左目視と右目視を同時処理し,冗長な計算を低減し,高解像度VRディスプレイをサポートする両眼バッチ処理を導入した。
我々はVRGaussian Avatarを定量的な性能試験および画像ベースおよびビデオベースメッシュアバターベースラインに対する内部ユーザスタディにより評価した。
以上の結果から,VRGaussian AvatarはVRの対話的性能を保ち,外観の類似性,実施性,妥当性が高いことが示された。
プロジェクトページとソースコードはhttps://vrgaussianavatar.github.ioで公開されている。
関連論文リスト
- FlexAvatar: Learning Complete 3D Head Avatars with Partial Supervision [54.69512425050288]
1枚の画像から高品質で完全な3Dヘッドアバターを作成するFlexAvatarを紹介する。
トレーニング手順はスムーズな遅延アバター空間を生じ,任意の数の入力観測に適合する恒等性とフレキシブルな適合性を実現する。
論文 参考訳(メタデータ) (2025-12-17T17:09:52Z) - Visionary: The World Model Carrier Built on WebGPU-Powered Gaussian Splatting Platform [104.39464309969253]
Visionaryは、リアルタイムな様々なガウススティングとレンダリングのための、オープンでWebネイティブなプラットフォームである。
Visionaryは、軽量で“クリック・トゥ・ラン”なブラウザエクスペリエンスを維持しながら、動的ニューラル処理を可能にする。
論文 参考訳(メタデータ) (2025-12-09T10:54:58Z) - AGORA: Adversarial Generation Of Real-time Animatable 3D Gaussian Head Avatars [54.854597811704316]
AGORAは、3DGSを生成的敵ネットワーク内で拡張し、アニマタブルなアバターを生成する新しいフレームワークである。
表現の忠実度は、二重識別器の訓練スキームによって強制される。
AGORAは視覚的にリアルなだけでなく、正確に制御可能なアバターを生成する。
論文 参考訳(メタデータ) (2025-12-06T14:05:20Z) - GSAC: Leveraging Gaussian Splatting for Photorealistic Avatar Creation with Unity Integration [45.439388725485124]
フォトリアリスティックアバターは、仮想現実(VR)や拡張現実(AR)における没入型アプリケーションに不可欠であり、トレーニングシミュレーション、遠隔医療、バーチャルコラボレーションなどの分野におけるライフライクなインタラクションを可能にする。
既存のアバター生成技術は、高コスト、長い作成時間、仮想アプリケーションにおける限られたユーティリティなど、重大な課題に直面している。
本稿では,モノクロビデオ入力を活用して,スケーラブルで効率的な光リアルアバターを作成する,エンドツーエンドの3Dガウス3DGSアバター生成パイプラインを提案する。
論文 参考訳(メタデータ) (2025-04-17T15:10:14Z) - Avat3r: Large Animatable Gaussian Reconstruction Model for High-fidelity 3D Head Avatars [60.0866477932976]
少数の入力画像から高品質でアニマタブルな3Dヘッドアバターを復元するAvat3rを提案する。
大規模なリコンストラクションモデルをアニマタブルにし、大規模なマルチビュービデオデータセットから3次元以上の人間の頭部を強力に学習する。
トレーニング中に異なる表現の入力イメージをモデルに供給することでロバスト性を高め,不整合入力からの3次元頭部アバターの再構成を可能にする。
論文 参考訳(メタデータ) (2025-02-27T16:00:11Z) - GaussRender: Learning 3D Occupancy with Gaussian Rendering [86.89653628311565]
GaussRenderは、投影的一貫性を強制することによって3D占有学習を改善するモジュールである。
提案手法は,不整合な2次元プロジェクションを生成する3次元構成をペナライズすることにより,より一貫性のある3次元構造を実現する。
論文 参考訳(メタデータ) (2025-02-07T16:07:51Z) - SqueezeMe: Mobile-Ready Distillation of Gaussian Full-Body Avatars [19.249226899376943]
本稿では,高忠実度3Dガウスフルボディアバターを軽量な表現に変換するフレームワークであるSqueezeMeを紹介する。
私たちはMeta Quest 3 VRヘッドセットで3つのガウスアバターをリアルタイムで(72FPS)同時アニメーションとレンダリングを初めて実現しました。
論文 参考訳(メタデータ) (2024-12-19T18:46:55Z) - VR-Splatting: Foveated Radiance Field Rendering via 3D Gaussian Splatting and Neural Points [4.962171160815189]
本稿では,パフォーマンススイートスポットに関する両点描画方向の長所を結合した,新しいハイブリッドアプローチを提案する。
焦点のみの場合、我々は小さなピクセルフットプリントのために畳み込みニューラルネットワークでニューラルネットワークを使用し、鋭く詳細な出力を提供する。
提案手法は,標準的なVR対応3DGS構成と比較して,シャープネスとディテールが向上することを確認した。
論文 参考訳(メタデータ) (2024-10-23T14:54:48Z) - Generalizable and Animatable Gaussian Head Avatar [50.34788590904843]
本稿では,GAGAvatar(Generalizable and Animatable Gaussian Head Avatar)を提案する。
我々は、1つの前方通過で1つの画像から3次元ガウスのパラメータを生成する。
提案手法は, 従来の手法と比較して, 再現性や表現精度の点で優れた性能を示す。
論文 参考訳(メタデータ) (2024-10-10T14:29:00Z) - NPGA: Neural Parametric Gaussian Avatars [46.52887358194364]
マルチビュー映像記録から高忠実度制御可能なアバターを作成するためのデータ駆動方式を提案する。
我々は,高効率なレンダリングのための3次元ガウススプラッティングの手法を構築し,点雲のトポロジカルな柔軟性を継承する。
提案手法をNeRSembleデータセット上で評価し,NPGAが従来の自己再現タスクの2.6PSNRよりも有意に優れていたことを示す。
論文 参考訳(メタデータ) (2024-05-29T17:58:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。