論文の概要: VRGaussianAvatar: Integrating 3D Gaussian Avatars into VR
- arxiv url: http://arxiv.org/abs/2602.01674v1
- Date: Mon, 02 Feb 2026 05:42:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:33.931645
- Title: VRGaussianAvatar: Integrating 3D Gaussian Avatars into VR
- Title(参考訳): VRGaussian Avatar:3DガウスアバターをVRに統合
- Authors: Hail Song, Boram Yoon, Seokhwan Yang, Seoyoung Kang, Hyunjeong Kim, Henning Metzmacher, Woontack Woo,
- Abstract要約: VRGaussian Avatarは、ヘッドマウントディスプレイ(HMD)信号のみを使用してリアルタイムのフルボディ3D Splatting (3DGS)アバターを可能にする。
VR Frontendは、逆キネマティクスを使用して、フルボディのポーズを推定し、結果のポーズとステレオカメラパラメータをバックエンドにストリームする。
GAバックエンドは、単一の画像から再構成された3DGSアバターを立体的にレンダリングする。
- 参考スコア(独自算出の注目度): 10.447124865294017
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We present VRGaussianAvatar, an integrated system that enables real-time full-body 3D Gaussian Splatting (3DGS) avatars in virtual reality using only head-mounted display (HMD) tracking signals. The system adopts a parallel pipeline with a VR Frontend and a GA Backend. The VR Frontend uses inverse kinematics to estimate full-body pose and streams the resulting pose along with stereo camera parameters to the backend. The GA Backend stereoscopically renders a 3DGS avatar reconstructed from a single image. To improve stereo rendering efficiency, we introduce Binocular Batching, which jointly processes left and right eye views in a single batched pass to reduce redundant computation and support high-resolution VR displays. We evaluate VRGaussianAvatar with quantitative performance tests and a within-subject user study against image- and video-based mesh avatar baselines. Results show that VRGaussianAvatar sustains interactive VR performance and yields higher perceived appearance similarity, embodiment, and plausibility. Project page and source code are available at https://vrgaussianavatar.github.io.
- Abstract(参考訳): 本稿では,ヘッドマウントディスプレイ(HMD)トラッキング信号のみを用いて,リアルタイムのフルボディ3Dガウスアバター(3DGS)を実現するシステムであるVRGaussianAvatarを提案する。
このシステムは、VRフロントエンドとGAバックエンドを備えた並列パイプラインを採用している。
VRフロントエンドは、逆キネマティクスを使用してフルボディのポーズを推定し、結果のポーズとステレオカメラパラメータをバックエンドにストリームする。
GAバックエンドは、単一の画像から再構成された3DGSアバターを立体的にレンダリングする。
ステレオレンダリング効率を向上させるために,左目視と右目視を同時処理し,冗長な計算を低減し,高解像度VRディスプレイをサポートする両眼バッチ処理を導入した。
我々はVRGaussian Avatarを定量的な性能試験および画像ベースおよびビデオベースメッシュアバターベースラインに対する内部ユーザスタディにより評価した。
以上の結果から,VRGaussian AvatarはVRの対話的性能を保ち,外観の類似性,実施性,妥当性が高いことが示された。
プロジェクトページとソースコードはhttps://vrgaussianavatar.github.ioで公開されている。
関連論文リスト
- AGORA: Adversarial Generation Of Real-time Animatable 3D Gaussian Head Avatars [54.854597811704316]
AGORAは、3DGSを生成的敵ネットワーク内で拡張し、アニマタブルなアバターを生成する新しいフレームワークである。
表現の忠実度は、二重識別器の訓練スキームによって強制される。
AGORAは視覚的にリアルなだけでなく、正確に制御可能なアバターを生成する。
論文 参考訳(メタデータ) (2025-12-06T14:05:20Z) - Avat3r: Large Animatable Gaussian Reconstruction Model for High-fidelity 3D Head Avatars [60.0866477932976]
少数の入力画像から高品質でアニマタブルな3Dヘッドアバターを復元するAvat3rを提案する。
大規模なリコンストラクションモデルをアニマタブルにし、大規模なマルチビュービデオデータセットから3次元以上の人間の頭部を強力に学習する。
トレーニング中に異なる表現の入力イメージをモデルに供給することでロバスト性を高め,不整合入力からの3次元頭部アバターの再構成を可能にする。
論文 参考訳(メタデータ) (2025-02-27T16:00:11Z) - GaussRender: Learning 3D Occupancy with Gaussian Rendering [86.89653628311565]
GaussRenderは、投影的一貫性を強制することによって3D占有学習を改善するモジュールである。
提案手法は,不整合な2次元プロジェクションを生成する3次元構成をペナライズすることにより,より一貫性のある3次元構造を実現する。
論文 参考訳(メタデータ) (2025-02-07T16:07:51Z) - SqueezeMe: Mobile-Ready Distillation of Gaussian Full-Body Avatars [19.249226899376943]
本稿では,高忠実度3Dガウスフルボディアバターを軽量な表現に変換するフレームワークであるSqueezeMeを紹介する。
私たちはMeta Quest 3 VRヘッドセットで3つのガウスアバターをリアルタイムで(72FPS)同時アニメーションとレンダリングを初めて実現しました。
論文 参考訳(メタデータ) (2024-12-19T18:46:55Z) - Generalizable and Animatable Gaussian Head Avatar [50.34788590904843]
本稿では,GAGAvatar(Generalizable and Animatable Gaussian Head Avatar)を提案する。
我々は、1つの前方通過で1つの画像から3次元ガウスのパラメータを生成する。
提案手法は, 従来の手法と比較して, 再現性や表現精度の点で優れた性能を示す。
論文 参考訳(メタデータ) (2024-10-10T14:29:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。