論文の概要: EventEgoHands: Event-based Egocentric 3D Hand Mesh Reconstruction
- arxiv url: http://arxiv.org/abs/2505.19169v1
- Date: Sun, 25 May 2025 14:36:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-27 16:58:42.949279
- Title: EventEgoHands: Event-based Egocentric 3D Hand Mesh Reconstruction
- Title(参考訳): EventEgoHands: イベントベースのエゴセントリックな3Dハンドメッシュ再構築
- Authors: Ryosei Hara, Wataru Ikeda, Masashi Hatano, Mariko Isogawa,
- Abstract要約: 3Dハンドメッシュの再構築は難しいが、人間とコンピュータのインタラクションとAR/VRアプリケーションにとって重要な課題である。
本研究では,イベントベースの手メッシュ再構築手法であるEventEgoHandsを提案する。
本手法では,ハンド領域を抽出し,動的バックグラウンドイベントの影響を効果的に緩和するハンドモジュールを提案する。
- 参考スコア(独自算出の注目度): 2.3695551082138864
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Reconstructing 3D hand mesh is challenging but an important task for human-computer interaction and AR/VR applications. In particular, RGB and/or depth cameras have been widely used in this task. However, methods using these conventional cameras face challenges in low-light environments and during motion blur. Thus, to address these limitations, event cameras have been attracting attention in recent years for their high dynamic range and high temporal resolution. Despite their advantages, event cameras are sensitive to background noise or camera motion, which has limited existing studies to static backgrounds and fixed cameras. In this study, we propose EventEgoHands, a novel method for event-based 3D hand mesh reconstruction in an egocentric view. Our approach introduces a Hand Segmentation Module that extracts hand regions, effectively mitigating the influence of dynamic background events. We evaluated our approach and demonstrated its effectiveness on the N-HOT3D dataset, improving MPJPE by approximately more than 4.5 cm (43%).
- Abstract(参考訳): 3Dハンドメッシュの再構築は難しいが、人間とコンピュータのインタラクションとAR/VRアプリケーションにとって重要な課題である。
特に、RGBおよび/または深度カメラがこのタスクで広く使用されている。
しかし、これらの従来のカメラを用いた手法は、低照度環境や動きのぼやけ時の課題に直面している。
このような制約に対処するため,近年は高ダイナミックレンジと高時間分解能のイベントカメラが注目されている。
その利点にもかかわらず、イベントカメラはバックグラウンドノイズやカメラの動きに敏感であり、既存の研究は静的な背景や固定されたカメラに限られている。
本研究では,イベントベースの手メッシュ再構築手法であるEventEgoHandsを提案する。
本手法では,ハンド領域を抽出し,動的バックグラウンドイベントの影響を効果的に緩和するハンドセグメンテーションモジュールを提案する。
提案手法の有効性をN-HOT3Dデータセットで評価し,MPJPEを4.5cm (43%) 以上改善した。
関連論文リスト
- Dyn-HaMR: Recovering 4D Interacting Hand Motion from a Dynamic Camera [49.82535393220003]
Dyn-HaMRは、野生のダイナミックカメラで撮影されたモノクロビデオから4Dグローバルハンドモーションを再構築する最初のアプローチである。
提案手法は,4次元メッシュ・リカバリにおいて最先端の手法を著しく上回ることを示す。
これにより、動くカメラでモノクロビデオから手の動きを復元するための新しいベンチマークが確立される。
論文 参考訳(メタデータ) (2024-12-17T12:43:10Z) - E-3DGS: Gaussian Splatting with Exposure and Motion Events [29.042018288378447]
E-3DGSは、イベントベースの3D再構築のための新しいベンチマークを、困難な状況下で堅牢なパフォーマンスで設定する。
EME-3Dは、露光イベント、モーションイベント、カメラキャリブレーションパラメータ、スパースポイントクラウドを備えた実世界の3Dデータセットである。
論文 参考訳(メタデータ) (2024-10-22T13:17:20Z) - EF-3DGS: Event-Aided Free-Trajectory 3D Gaussian Splatting [72.60992807941885]
生物学的ビジョンにインスパイアされたイベントカメラは、時間分解能の高い画素の強度を非同期に記録する。
本稿では,イベントカメラの利点を3DGSにシームレスに統合するイベント支援フリートラジェクトリ3DGSを提案する。
提案手法を,パブリックタンクとテンプルのベンチマークと,新たに収集した実世界のデータセットであるRealEv-DAVISで評価した。
論文 参考訳(メタデータ) (2024-10-20T13:44:24Z) - Complementing Event Streams and RGB Frames for Hand Mesh Reconstruction [51.87279764576998]
EvRGBHand - イベントカメラとRGBカメラによる3Dハンドメッシュ再構築のための最初のアプローチを提案する。
EvRGBHandは、RGBベースのHMRにおける露出とモーションのぼかしの問題と、イベントベースのHMRにおける前景の不足とバックグラウンドのオーバーフロー問題に対処することができる。
論文 参考訳(メタデータ) (2024-03-12T06:04:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。