論文の概要: Sequence-Based Identification of First-Person Camera Wearers in Third-Person Views
- arxiv url: http://arxiv.org/abs/2506.00394v1
- Date: Sat, 31 May 2025 05:25:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:32.884438
- Title: Sequence-Based Identification of First-Person Camera Wearers in Third-Person Views
- Title(参考訳): サードパーソンビューにおけるファーストパーソンカメラウェアのシーケンスベース同定
- Authors: Ziwei Zhao, Xizi Wang, Yuchen Wang, Feng Cheng, David Crandall,
- Abstract要約: TF2025は、ファーストパーソンとサードパーソンのビューを同期した拡張データセットである。
本研究では,3人称映像における一対一の着用者を特定するシークエンスに基づく手法を提案する。
- 参考スコア(独自算出の注目度): 12.87229295126483
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The increasing popularity of egocentric cameras has generated growing interest in studying multi-camera interactions in shared environments. Although large-scale datasets such as Ego4D and Ego-Exo4D have propelled egocentric vision research, interactions between multiple camera wearers remain underexplored-a key gap for applications like immersive learning and collaborative robotics. To bridge this, we present TF2025, an expanded dataset with synchronized first- and third-person views. In addition, we introduce a sequence-based method to identify first-person wearers in third-person footage, combining motion cues and person re-identification.
- Abstract(参考訳): エゴセントリックカメラの普及により、共有環境におけるマルチカメラインタラクションの研究への関心が高まっている。
Ego4DやEgo-Exo4Dのような大規模なデータセットは、エゴセントリックな視覚研究を推進しているが、複数のカメラ装着者間の相互作用は、没入型学習や協調ロボット工学のようなアプリケーションにとって重要なギャップとして、未探索のままである。
TF2025は、一対一の視点と三対一の視点を同期した拡張データセットである。
さらに,3人称映像のファーストパーソンを識別するためのシーケンスベース手法を導入し,動きの手がかりと人物の再識別を組み合わせた。
関連論文リスト
- EgoChoir: Capturing 3D Human-Object Interaction Regions from Egocentric Views [51.53089073920215]
エゴセントリックな人間と物体の相互作用(HOI)を理解することは、人間中心の知覚の基本的な側面である。
既存の手法は主にHOIの観測を利用して、外心的な視点から相互作用領域を捉えている。
EgoChoirは、オブジェクト構造と、外見と頭部運動に固有の相互作用コンテキストを結びつけて、オブジェクトの余裕を明らかにする。
論文 参考訳(メタデータ) (2024-05-22T14:03:48Z) - Benchmarks and Challenges in Pose Estimation for Egocentric Hand Interactions with Objects [89.95728475983263]
ロボティクス、AR/VR、アクション認識、モーション生成といったタスクにおいて、自己中心的な視点からこのようなインタラクションを理解することが重要である。
我々は、AmblyHandsとARCTICデータセットに基づいたHANDS23チャレンジを、慎重に設計されたトレーニングとテストの分割に基づいて設計する。
提案手法の結果と近年のリーダーボードのベースラインに基づいて,3Dハンド(オブジェクト)再構成タスクの徹底的な解析を行う。
論文 参考訳(メタデータ) (2024-03-25T05:12:21Z) - Retrieval-Augmented Egocentric Video Captioning [53.2951243928289]
EgoInstructor(エゴインストラクタ)は、意味的に関連する第三者の指導ビデオを自動的に検索する、検索拡張マルチモーダルキャプションモデルである。
我々は、エゴセントリックでエゴセントリックなビデオ機能を引き出す新しいEgoExoNCE損失でクロスビュー検索モジュールをトレーニングし、同様のアクションを記述した共有テキスト機能にアライメントすることで、より近づいた。
論文 参考訳(メタデータ) (2024-01-01T15:31:06Z) - Enhancing Egocentric 3D Pose Estimation with Third Person Views [37.9683439632693]
本研究では,1台のウェアラブルカメラから撮影した映像から計算した人物の3次元身振り推定を強化する新しい手法を提案する。
First2Third-Poseは、最初の視点と第三視点の両方から捉えた人間の活動を描いた2000近いビデオからなる、ペア化された新しい同期データセットである。
実験により,データセットを用いて学習した多視点埋め込み空間は,任意の単視点自我中心ビデオから識別的特徴を抽出するのに有用であることが示された。
論文 参考訳(メタデータ) (2022-01-06T11:42:01Z) - The MECCANO Dataset: Understanding Human-Object Interactions from
Egocentric Videos in an Industrial-like Domain [20.99718135562034]
我々は,産業的な環境下での人間と物体の相互作用を研究するための,エゴセントリックビデオの最初のデータセットであるMECCANOを紹介した。
このデータセットは、人間とオブジェクトの相互作用をエゴセントリックな視点から認識するタスクのために明示的にラベル付けされている。
ベースラインの結果から,MECCANOデータセットは,産業的なシナリオにおける自我中心の人間とオブジェクトの相互作用を研究する上で,困難なベンチマークであることが示された。
論文 参考訳(メタデータ) (2020-10-12T12:50:30Z) - Three-Stream Fusion Network for First-Person Interaction Recognition [23.494230682329306]
3ストリームアーキテクチャは、ターゲットの外観、ターゲットの動き、カメラの自走の特徴をキャプチャする。
3ストリーム相関融合は、3つのストリームのそれぞれの特徴マップを組み合わせて、ターゲットの外観、ターゲットの動き、カメラのエゴモーションの相関を考察する。
論文 参考訳(メタデータ) (2020-02-19T14:47:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。