論文の概要: Event-based Egocentric Human Pose Estimation in Dynamic Environment
- arxiv url: http://arxiv.org/abs/2505.22007v1
- Date: Wed, 28 May 2025 06:13:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-29 17:35:50.438332
- Title: Event-based Egocentric Human Pose Estimation in Dynamic Environment
- Title(参考訳): 動的環境における事象中心型人間行動推定
- Authors: Wataru Ikeda, Masashi Hatano, Ryosei Hara, Mariko Isogawa,
- Abstract要約: スポーツモーション分析、VR/AR、ウェアラブルデバイスのためのAIといった応用には、前面のエゴセントリックカメラを使用して人間のポーズを推定することが不可欠である。
本研究では,頭部に装着した前面イベントベースカメラを用いて人間のポーズ推定を行う新しいタスクを提案する。
- 参考スコア(独自算出の注目度): 2.3695551082138864
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Estimating human pose using a front-facing egocentric camera is essential for applications such as sports motion analysis, VR/AR, and AI for wearable devices. However, many existing methods rely on RGB cameras and do not account for low-light environments or motion blur. Event-based cameras have the potential to address these challenges. In this work, we introduce a novel task of human pose estimation using a front-facing event-based camera mounted on the head and propose D-EventEgo, the first framework for this task. The proposed method first estimates the head poses, and then these are used as conditions to generate body poses. However, when estimating head poses, the presence of dynamic objects mixed with background events may reduce head pose estimation accuracy. Therefore, we introduce the Motion Segmentation Module to remove dynamic objects and extract background information. Extensive experiments on our synthetic event-based dataset derived from EgoBody, demonstrate that our approach outperforms our baseline in four out of five evaluation metrics in dynamic environments.
- Abstract(参考訳): スポーツモーション分析、VR/AR、ウェアラブルデバイスのためのAIといった応用には、前面のエゴセントリックカメラを使用して人間のポーズを推定することが不可欠である。
しかし、既存の多くの手法はRGBカメラに依存しており、低照度環境や動きのぼかしを考慮していない。
イベントベースのカメラは、これらの課題に対処する可能性がある。
本研究では,頭部に搭載された前面イベントベースカメラを用いた人間のポーズ推定の新しいタスクを提案し,その最初のフレームワークであるD-EventEgoを提案する。
提案手法はまず頭部ポーズを推定し,次に身体ポーズを生成する条件として使用する。
しかし、頭部ポーズを推定する場合、背景イベントと混在する動的物体の存在により、頭部ポーズ推定精度が低下する可能性がある。
そこで,動的オブジェクトを除去し,背景情報を抽出するMotion Segmentation Moduleを導入する。
EgoBodyから派生した合成イベントベースデータセットに関する大規模な実験により、我々のアプローチは動的環境における5つの評価指標のうち4つでベースラインを上回ります。
関連論文リスト
- EventEgoHands: Event-based Egocentric 3D Hand Mesh Reconstruction [2.3695551082138864]
3Dハンドメッシュの再構築は難しいが、人間とコンピュータのインタラクションとAR/VRアプリケーションにとって重要な課題である。
本研究では,イベントベースの手メッシュ再構築手法であるEventEgoHandsを提案する。
本手法では,ハンド領域を抽出し,動的バックグラウンドイベントの影響を効果的に緩和するハンドモジュールを提案する。
論文 参考訳(メタデータ) (2025-05-25T14:36:51Z) - FRAME: Floor-aligned Representation for Avatar Motion from Egocentric Video [52.33896173943054]
ヘッドマウントのボディフェイスステレオカメラを備えたエゴセントリックなモーションキャプチャーは、VRやARアプリケーションには不可欠だ。
既存の方法は、合成事前学習と、現実の環境で滑らかで正確な予測を生成するのに苦労している。
本稿では、デバイスポーズとカメラフィードを組み合わせて、最先端のボディポーズ予測を行う、シンプルで効果的なアーキテクチャFRAMEを提案する。
論文 参考訳(メタデータ) (2025-03-29T14:26:06Z) - EgoGaussian: Dynamic Scene Understanding from Egocentric Video with 3D Gaussian Splatting [95.44545809256473]
エゴガウスアン(EgoGaussian)は、3Dシーンを同時に再構築し、RGBエゴセントリックな入力のみから3Dオブジェクトの動きを動的に追跡する手法である。
動的オブジェクトと背景再構築の品質の両面で,最先端技術と比較して大きな改善が見られた。
論文 参考訳(メタデータ) (2024-06-28T10:39:36Z) - 3D Human Scan With A Moving Event Camera [7.734104968315144]
イベントカメラは高時間分解能と高ダイナミックレンジの利点がある。
本稿では,3次元ポーズ推定とヒューマンメッシュ復元のためのイベントベース手法を提案する。
論文 参考訳(メタデータ) (2024-04-12T14:34:24Z) - VICAN: Very Efficient Calibration Algorithm for Large Camera Networks [49.17165360280794]
ポースグラフ最適化手法を拡張する新しい手法を提案する。
我々は、カメラを含む二部グラフ、オブジェクトの動的進化、各ステップにおけるカメラオブジェクト間の相対変換について考察する。
我々のフレームワークは従来のPGOソルバとの互換性を維持しているが、その有効性はカスタマイズされた最適化方式の恩恵を受けている。
論文 参考訳(メタデータ) (2024-03-25T17:47:03Z) - Attentive and Contrastive Learning for Joint Depth and Motion Field
Estimation [76.58256020932312]
単眼視システムからシーンの3次元構造とともにカメラの動きを推定することは複雑な作業である。
モノクロ映像からの3次元物体運動場推定のための自己教師付き学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-10-13T16:45:01Z) - Event-based Motion Segmentation with Spatio-Temporal Graph Cuts [51.17064599766138]
イベントベースカメラで取得したオブジェクトを独立に識別する手法を開発した。
この方法は、予想される移動物体の数を事前に決定することなく、技術状態よりも同等以上の性能を発揮する。
論文 参考訳(メタデータ) (2020-12-16T04:06:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。