論文の概要: Ego-1K -- A Large-Scale Multiview Video Dataset for Egocentric Vision
- arxiv url: http://arxiv.org/abs/2603.13741v1
- Date: Sat, 14 Mar 2026 04:00:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:35.3756
- Title: Ego-1K -- A Large-Scale Multiview Video Dataset for Egocentric Vision
- Title(参考訳): Ego-1K - Egocentric Visionのための大規模マルチビュービデオデータセット
- Authors: Jae Yong Lee, Daniel Scharstein, Akash Bapat, Hao Hu, Andrew Fu, Haoru Zhao, Paul Sammut, Xiang Li, Stephen Jeapes, Anik Gupta, Lior David, Saketh Madhuvarasu, Jay Girish Joshi, Jason Wither,
- Abstract要約: Egohugging-1Kは、時間同期型エゴセントリックなマルチビュービデオの大規模なコレクションである。
このデータセットには、ユーザーが装着する4カメラVRヘッドセットを取り囲む12台の同期カメラを備えたカスタムリグで撮影した1000本近い短い自撮りビデオが含まれている。
- 参考スコア(独自算出の注目度): 7.318705822469006
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present Ego-1K, a large-scale collection of time-synchronized egocentric multiview videos designed to advance neural 3D video synthesis and dynamic scene understanding. The dataset contains nearly 1,000 short egocentric videos captured with a custom rig with 12 synchronized cameras surrounding a 4-camera VR headset worn by the user. Scene content focuses on hand motions and hand-object interactions in different settings. We describe rig design, data processing, and calibration. Our dataset enables new ways to benchmark egocentric scene reconstruction methods, an important research area as smart glasses with multiple cameras become omnipresent. Our experiments demonstrate that our dataset presents unique challenges for existing 3D and 4D novel view synthesis methods due to large disparities and image motion caused by close dynamic objects and rig egomotion. Our dataset supports future research in this challenging domain. It is available at https://huggingface.co/datasets/facebook/ego-1k.
- Abstract(参考訳): Ego-1Kは,ニューラルネットワークによる3Dビデオ合成と動的シーン理解の促進を目的とした,時間同期型エゴ中心型多視点ビデオの大規模コレクションである。
このデータセットには、ユーザーが装着する4カメラVRヘッドセットを取り囲む12台の同期カメラを備えたカスタムリグで撮影した1000本近い短い自撮りビデオが含まれている。
シーンの内容は、異なる設定における手の動きと手動の相互作用に焦点を当てている。
本稿では,リグ設計,データ処理,キャリブレーションについて述べる。
我々のデータセットは、複数のカメラを備えたスマートグラスが一様になるにつれて、エゴセントリックなシーン再構築手法のベンチマークを可能にする重要な研究領域である。
実験により,我々のデータセットは,近接する動的物体やリグの運動によって生じる大きな相違や画像の動きにより,既存の3次元および4次元の新規なビュー合成手法に固有の課題を呈することを示した。
私たちのデータセットは、この挑戦的な領域における将来の研究を支援します。
https://huggingface.co/datasets/facebook/ego-1k.comで入手できる。
関連論文リスト
- FRAME: Floor-aligned Representation for Avatar Motion from Egocentric Video [52.33896173943054]
ヘッドマウントのボディフェイスステレオカメラを備えたエゴセントリックなモーションキャプチャーは、VRやARアプリケーションには不可欠だ。
既存の方法は、合成事前学習と、現実の環境で滑らかで正確な予測を生成するのに苦労している。
本稿では、デバイスポーズとカメラフィードを組み合わせて、最先端のボディポーズ予測を行う、シンプルで効果的なアーキテクチャFRAMEを提案する。
論文 参考訳(メタデータ) (2025-03-29T14:26:06Z) - EgoSim: An Egocentric Multi-view Simulator and Real Dataset for Body-worn Cameras during Motion and Activity [23.361792553311055]
エゴシム(EgoSim)は、身体の複数の視点から現実的なエゴセントリックなレンダリングを生成する、ボディウーンカメラの新しいシミュレータである。
EgoSimの重要な特徴は、実際のモーションキャプチャーデータを使ってモーションアーティファクトをレンダリングすることだ。
Xsensのモーションキャプチャースーツから6台のGoProカメラと3Dボディのポーズレファレンスを使って、13人の参加者から5時間の実際のモーションデータを収集しました。
論文 参考訳(メタデータ) (2025-02-25T17:11:14Z) - Ego3DT: Tracking Every 3D Object in Ego-centric Videos [20.96550148331019]
本稿では,エゴ中心映像からの物体の3次元再構成と追跡のための新しいゼロショット手法を提案する。
Ego3DTは,エゴ環境内のオブジェクトの検出とセグメンテーション情報を最初に識別し,抽出する新しいフレームワークである。
また,エゴ中心ビデオにおける物体の3次元追跡軌道を安定的に作成するための動的階層化機構を革新した。
論文 参考訳(メタデータ) (2024-10-11T05:02:31Z) - 3D Human Pose Perception from Egocentric Stereo Videos [67.9563319914377]
我々は,エゴセントリックな立体3次元ポーズ推定を改善するためのトランスフォーマーベースの新しいフレームワークを提案する。
本手法は, しゃがんだり座ったりといった困難なシナリオにおいても, 人間のポーズを正確に推定することができる。
私たちはUnrealEgo2、UnrealEgo-RW、およびトレーニングされたモデルをプロジェクトページでリリースします。
論文 参考訳(メタデータ) (2023-12-30T21:21:54Z) - EgoTracks: A Long-term Egocentric Visual Object Tracking Dataset [19.496721051685135]
身体追跡は多くの自我中心の視覚問題にとって重要な要素である。
EgoTracksは、長期的なエゴセントリックなビジュアルオブジェクトトラッキングのための新しいデータセットである。
本稿では,STARKトラッカーの性能向上を図り,エゴセントリックデータの性能向上を図っている。
論文 参考訳(メタデータ) (2023-01-09T09:10:35Z) - EgoBody: Human Body Shape, Motion and Social Interactions from
Head-Mounted Devices [76.50816193153098]
EgoBodyは複雑な3Dシーンにおけるソーシャルインタラクションのための新しい大規模データセットである。
私たちはMicrosoft HoloLens2ヘッドセットを使って、RGB、奥行き、視線、頭と手のトラッキングなど、リッチなエゴセントリックなデータストリームを記録しています。
正確な3Dグラウンドトルースを得るため、マルチKinectリグでヘッドセットを校正し、多視点RGB-Dフレームに表現力のあるSMPL-Xボディーメッシュを適合させる。
論文 参考訳(メタデータ) (2021-12-14T18:41:28Z) - Ego4D: Around the World in 3,000 Hours of Egocentric Video [276.1326075259486]
Ego4Dは大規模なビデオデータセットとベンチマークスイートである。
世界中の74か国と9か国から、855人のユニークなカメラ着用者が捉えた数百のシナリオを、毎日3,025時間の動画で見ることができる。
ビデオにはオーディオ、環境の3Dメッシュ、視線、ステレオ、および/または複数のエゴセントリックカメラからの同期ビデオが添付されている。
論文 参考訳(メタデータ) (2021-10-13T22:19:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。