論文の概要: MEEV: Body Mesh Estimation On Egocentric Video
- arxiv url: http://arxiv.org/abs/2210.14165v1
- Date: Fri, 21 Oct 2022 02:20:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-26 15:14:52.901829
- Title: MEEV: Body Mesh Estimation On Egocentric Video
- Title(参考訳): MEEV:エゴセントリックビデオのボディメッシュ推定
- Authors: Nicolas Monet and Dongyoon Wee
- Abstract要約: MEEVは、豊富な空間情報にマルチスケールの機能を利用するように設計されている。
データセットの限られたサイズを克服するために、モデルはデータセットを集約した2Dと3Dのポーズ推定データセットで事前訓練される。
MEEVはECCV 2022のEgoBody Challengeで優勝し、提案手法の有効性を示した。
- 参考スコア(独自算出の注目度): 4.385245083832118
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This technical report introduces our solution, MEEV, proposed to the EgoBody
Challenge at ECCV 2022. Captured from head-mounted devices, the dataset
consists of human body shape and motion of interacting people. The EgoBody
dataset has challenges such as occluded body or blurry image. In order to
overcome the challenges, MEEV is designed to exploit multiscale features for
rich spatial information. Besides, to overcome the limited size of dataset, the
model is pre-trained with the dataset aggregated 2D and 3D pose estimation
datasets. Achieving 82.30 for MPJPE and 92.93 for MPVPE, MEEV has won the
EgoBody Challenge at ECCV 2022, which shows the effectiveness of the proposed
method. The code is available at https://github.com/clovaai/meev
- Abstract(参考訳): 本稿では,ECCV 2022のEgoBody Challengeに提案したソリューションMEEVを紹介する。
ヘッドマウントデバイスからキャプチャーされたデータセットは、人間の体の形と対話する人々の動きで構成されている。
egobodyデータセットには、オクルードボディやぼやけた画像などの課題がある。
これらの課題を克服するため、MEEVは豊富な空間情報のためにマルチスケール機能を利用するように設計されている。
さらに、データセットの限られたサイズを克服するために、データセット集約2dおよび3dポーズ推定データセットを事前トレーニングする。
MEEV は MPJPE 82.30 と MPVPE 92.93 を達成し,ECCV 2022 で EgoBody Challenge を受賞し,提案手法の有効性を示した。
コードはhttps://github.com/clovaai/meevで入手できる。
関連論文リスト
- EMHI: A Multimodal Egocentric Human Motion Dataset with HMD and Body-Worn IMUs [17.864281586189392]
ウェアラブルセンサを用いた人間中心のポーズ推定(HPE)はVR/ARアプリケーションに不可欠である。
ほとんどの手法は、エゴセントリック・ビュー・イメージまたはスパース慣性測定ユニット(IMU)信号にのみ依存する。
マルチモーダルなtextbfEgocentric human textbfMotion データセットである textbfHead-Mounted Display (HMD) と body-worn textbfIMU を提案する。
論文 参考訳(メタデータ) (2024-08-30T10:12:13Z) - 3D Human Pose Perception from Egocentric Stereo Videos [67.9563319914377]
我々は,エゴセントリックな立体3次元ポーズ推定を改善するためのトランスフォーマーベースの新しいフレームワークを提案する。
本手法は, しゃがんだり座ったりといった困難なシナリオにおいても, 人間のポーズを正確に推定することができる。
私たちはUnrealEgo2、UnrealEgo-RW、およびトレーニングされたモデルをプロジェクトページでリリースします。
論文 参考訳(メタデータ) (2023-12-30T21:21:54Z) - MetaBEV: Solving Sensor Failures for BEV Detection and Map Segmentation [104.12419434114365]
現実世界のアプリケーションでは、センサの破損や故障がパフォーマンスの低下につながります。
極端に現実世界の環境に対処するための,MetaBEVと呼ばれる堅牢なフレームワークを提案する。
MetaBEVは、完全なモダリティと腐敗したモダリティの両方に大きなマージンで、先行技術よりも優れています。
論文 参考訳(メタデータ) (2023-04-19T16:37:17Z) - BEV-MAE: Bird's Eye View Masked Autoencoders for Point Cloud
Pre-training in Autonomous Driving Scenarios [51.285561119993105]
自律運転におけるLiDARに基づく3Dオブジェクト検出のための,効率的なマスク付きオートエンコーダ事前学習フレームワークであるBEV-MAEを提案する。
具体的には、3Dエンコーダ学習特徴表現を導くために,鳥の目視(BEV)誘導マスキング戦略を提案する。
学習可能なポイントトークンを導入し、3Dエンコーダの一貫性のある受容的フィールドサイズを維持する。
論文 参考訳(メタデータ) (2022-12-12T08:15:03Z) - Ego-Body Pose Estimation via Ego-Head Pose Estimation [22.08240141115053]
エゴセントリックなビデオシーケンスから3次元の人間の動きを推定することは、人間の行動理解において重要な役割を担い、VR/ARに様々な応用がある。
Ego-Head Pose Estimation (EgoEgo) と呼ばれる新しい手法を提案する。
この頭と体のポーズのゆがみは、ペア化されたエゴセントリックなビデオと3D人間の動きでデータセットをトレーニングする必要をなくす。
論文 参考訳(メタデータ) (2022-12-09T02:25:20Z) - UnrealEgo: A New Dataset for Robust Egocentric 3D Human Motion Capture [70.59984501516084]
UnrealEgoは、エゴセントリックな3Dポーズ推定のための、新しい大規模博物学データセットである。
これは、2台の魚眼カメラを備えた高度な眼鏡のコンセプトに基づいており、制約のない環境で使用することができる。
本稿では,ステレオ入力のための2次元キーポイント推定モジュールを考案し,人間のポーズ推定を改善するための簡易かつ効果的なベンチマーク手法を提案する。
論文 参考訳(メタデータ) (2022-08-02T17:59:54Z) - Egocentric Video-Language Pretraining @ EPIC-KITCHENS-100 Multi-Instance
Retrieval Challenge 2022 [22.299810960572348]
EPIC-KITCHENS-100 Multi-Instance Retrieval (MIR) のためのビデオ言語事前学習ソリューション citekevin2022egovlp を提案する。
ベストシングルモデルは、47.39% mAP と 61.44% nDCG のチャレンジテストセットで高い性能を得る。
論文 参考訳(メタデータ) (2022-07-04T11:32:48Z) - EgoBody: Human Body Shape, Motion and Social Interactions from
Head-Mounted Devices [76.50816193153098]
EgoBodyは複雑な3Dシーンにおけるソーシャルインタラクションのための新しい大規模データセットである。
私たちはMicrosoft HoloLens2ヘッドセットを使って、RGB、奥行き、視線、頭と手のトラッキングなど、リッチなエゴセントリックなデータストリームを記録しています。
正確な3Dグラウンドトルースを得るため、マルチKinectリグでヘッドセットを校正し、多視点RGB-Dフレームに表現力のあるSMPL-Xボディーメッシュを適合させる。
論文 参考訳(メタデータ) (2021-12-14T18:41:28Z) - 2nd Place Scheme on Action Recognition Track of ECCV 2020 VIPriors
Challenges: An Efficient Optical Flow Stream Guided Framework [57.847010327319964]
我々は、小さなデータセットでモデルをスクラッチからトレーニングできるデータ効率フレームワークを提案する。
具体的には、3D中心差分畳み込み演算を導入することで、新しいC3Dニューラルネットワークベースの2ストリームフレームワークを提案する。
提案手法は,大規模データセット上で事前学習したモデルがなくても,有望な結果が得られることを実証した。
論文 参考訳(メタデータ) (2020-08-10T09:50:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。