論文の概要: MultiEgo: A Multi-View Egocentric Video Dataset for 4D Scene Reconstruction
- arxiv url: http://arxiv.org/abs/2512.11301v1
- Date: Fri, 12 Dec 2025 05:54:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-15 15:48:11.672772
- Title: MultiEgo: A Multi-View Egocentric Video Dataset for 4D Scene Reconstruction
- Title(参考訳): MultiEgo:4Dシーン再構成のためのマルチビューエゴセントリックビデオデータセット
- Authors: Bate Li, Houqiang Zhong, Zhengxue Cheng, Qiang Hu, Qiang Wang, Li Song, Wenjun Zhang,
- Abstract要約: 4次元動的シーン再構成のための最初のマルチビューエゴセントリックデータセットであるMultiEgoを提示する。
データセットは、会議、パフォーマンス、プレゼンテーションの5つの標準的なソーシャルインタラクションシーンで構成されている。
実験により,自由視点ビデオ(FVV)アプリケーションにおけるデータセットの有用性と有効性を示す。
- 参考スコア(独自算出の注目度): 23.428989479526336
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-view egocentric dynamic scene reconstruction holds significant research value for applications in holographic documentation of social interactions. However, existing reconstruction datasets focus on static multi-view or single-egocentric view setups, lacking multi-view egocentric datasets for dynamic scene reconstruction. Therefore, we present MultiEgo, the first multi-view egocentric dataset for 4D dynamic scene reconstruction. The dataset comprises five canonical social interaction scenes: meetings, performances, and a presentation. Each scene provides five authentic egocentric videos captured by participants wearing AR glasses. We design a hardware-based data acquisition system and processing pipeline, achieving sub-millisecond temporal synchronization across views, coupled with accurate pose annotations. Experiment validation demonstrates the practical utility and effectiveness of our dataset for free-viewpoint video (FVV) applications, establishing MultiEgo as a foundational resource for advancing multi-view egocentric dynamic scene reconstruction research.
- Abstract(参考訳): マルチビューエゴセントリックな動的シーン再構成は、ソーシャルインタラクションのホログラフィー文書に応用するための重要な研究価値を持っている。
しかし、既存の再構成データセットは静的なマルチビューやシングルエゴセントリックなビュー設定に重点を置いており、動的シーン再構築のためのマルチビューエゴセントリックなデータセットが欠如している。
そこで本研究では、4次元動的シーン再構成のための最初のマルチビューエゴセントリックデータセットであるMultiEgoを提案する。
データセットは、会議、パフォーマンス、プレゼンテーションの5つの標準的なソーシャルインタラクションシーンで構成されている。
それぞれのシーンは、ARグラスを着用している参加者によって撮影された5つの本物の自我中心のビデオを提供する。
ハードウェアベースのデータ取得システムと処理パイプラインを設計し、ビュー間でミリ秒以下の時間同期を実現し、正確なポーズアノテーションと組み合わせる。
実験により,自由視点ビデオ(FVV)アプリケーションにおけるデータセットの実用性と有効性を実証し,マルチビュー・エゴセントリックな動的シーン再構築研究を進めるための基盤資源としてMultiEgoを確立した。
関連論文リスト
- Look and Tell: A Dataset for Multimodal Grounding Across Egocentric and Exocentric Views [5.723697351415207]
我々は、エゴセントリックな視点とエゴセントリックな視点をまたいだ参照コミュニケーションを研究するためのマルチモーダルデータセットであるLook and Tellを紹介した。
Meta Project Ariaスマートグラスと静止カメラを使って、25人の参加者がキッチンの材料を特定するようパートナーに指示した、同期した視線、スピーチ、ビデオを記録しました。
データセットには3.67時間の録音が含まれており、その中には2,707の注釈付き参照表現が含まれている。
論文 参考訳(メタデータ) (2025-10-26T13:27:59Z) - ImViD: Immersive Volumetric Videos for Enhanced VR Engagement [34.450247091615395]
VR/AR技術の次のフロンティアは、完全なシーンキャプチャー、大きな6-DoFインタラクションスペース、マルチモーダルフィードバック、高解像度とフレームレートのコンテンツを備えた没入型ボリュームビデオである。
完全空間指向データキャプチャと様々な屋内/屋外シナリオを備えたマルチビューマルチモーダルデータセットであるImViDを紹介する。
我々のキャプチャリグは、移動中のマルチビュービデオオーディオキャプチャをサポートし、データの完全性、柔軟性、効率を大幅に向上させる。
論文 参考訳(メタデータ) (2025-03-18T15:42:22Z) - Unlocking Exocentric Video-Language Data for Egocentric Video Representation Learning [80.37314291927889]
EMBEDは、エゴセントリックなビデオ表現学習のための、エゴセントリックなビデオ言語データを変換するために設計された手法である。
エゴセントリックなビデオは、主にクローズアップなハンドオブジェクトのインタラクションを特徴としているのに対し、エゴセントリックなビデオは、人間の活動に対してより広い視点を提供する。
視覚と言語スタイルの転送の両方を適用することで、私たちのフレームワークは新しいエゴセントリックなデータセットを作成します。
論文 参考訳(メタデータ) (2024-08-07T06:10:45Z) - EgoGaussian: Dynamic Scene Understanding from Egocentric Video with 3D Gaussian Splatting [95.44545809256473]
エゴガウスアン(EgoGaussian)は、3Dシーンを同時に再構築し、RGBエゴセントリックな入力のみから3Dオブジェクトの動きを動的に追跡する手法である。
動的オブジェクトと背景再構築の品質の両面で,最先端技術と比較して大きな改善が見られた。
論文 参考訳(メタデータ) (2024-06-28T10:39:36Z) - 3D Human Pose Perception from Egocentric Stereo Videos [67.9563319914377]
我々は,エゴセントリックな立体3次元ポーズ推定を改善するためのトランスフォーマーベースの新しいフレームワークを提案する。
本手法は, しゃがんだり座ったりといった困難なシナリオにおいても, 人間のポーズを正確に推定することができる。
私たちはUnrealEgo2、UnrealEgo-RW、およびトレーニングされたモデルをプロジェクトページでリリースします。
論文 参考訳(メタデータ) (2023-12-30T21:21:54Z) - Learning Fine-grained View-Invariant Representations from Unpaired
Ego-Exo Videos via Temporal Alignment [71.16699226211504]
我々は,エゴセントリックな映像とエゴセントリックな映像を時間内に整列させることにより,視点に不変なきめ細かいアクション特徴を学習することを提案する。
そこで本研究では,2つの鍵設計を持つ自己教師型埋め込み手法であるAE2を提案する。
評価のために,エゴ・エクソ・コンテキストにおけるきめ細かい映像理解のためのベンチマークを構築した。
論文 参考訳(メタデータ) (2023-06-08T19:54:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。