論文の概要: EgoCOL: Egocentric Camera pose estimation for Open-world 3D object
Localization @Ego4D challenge 2023
- arxiv url: http://arxiv.org/abs/2306.16606v1
- Date: Thu, 29 Jun 2023 00:17:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-30 15:17:02.168026
- Title: EgoCOL: Egocentric Camera pose estimation for Open-world 3D object
Localization @Ego4D challenge 2023
- Title(参考訳): EgoCOL: Egocentric Camera pose Estimation for Openworld 3D object Localization @Ego4D Challenge 2023
- Authors: Cristhian Forigua, Maria Escobar, Jordi Pont-Tuset, Kevis-Kokitsi
Maninis and Pablo Arbel\'aez
- Abstract要約: オープンワールド3Dオブジェクトローカライゼーションのためのエゴセントリックカメラポーズ推定法であるEgoCOLを提案する。
提案手法は,2次元のカメラポーズをビデオとスキャンで独立に再現し,高いリコール精度と精度で3次元レンダリングにおける自己中心型フレームのカメラポーズを推定する。
- 参考スコア(独自算出の注目度): 9.202585784962276
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present EgoCOL, an egocentric camera pose estimation method for open-world
3D object localization. Our method leverages sparse camera pose reconstructions
in a two-fold manner, video and scan independently, to estimate the camera pose
of egocentric frames in 3D renders with high recall and precision. We
extensively evaluate our method on the Visual Query (VQ) 3D object localization
Ego4D benchmark. EgoCOL can estimate 62% and 59% more camera poses than the
Ego4D baseline in the Ego4D Visual Queries 3D Localization challenge at CVPR
2023 in the val and test sets, respectively. Our code is publicly available at
https://github.com/BCV-Uniandes/EgoCOL
- Abstract(参考訳): オープンワールド3Dオブジェクトローカライゼーションのためのエゴセントリックカメラポーズ推定法であるEgoCOLを提案する。
提案手法は,2次元のカメラポーズをビデオとスキャンで独立に再現し,高いリコール精度と精度で3次元レンダリングにおける自己中心型フレームのカメラポーズを推定する。
提案手法をVisual Query (VQ) 3DオブジェクトローカライズEgo4Dベンチマークで広く評価した。
Ego4D Visual Queries 3D Localization Challenge at CVPR 2023 in the val and test setでは、Ego4Dベースラインの62%と59%のカメラポーズを推定することができる。
私たちのコードはhttps://github.com/BCV-Uniandes/EgoCOLで公開されています。
関連論文リスト
- MPL: Lifting 3D Human Pose from Multi-view 2D Poses [75.26416079541723]
本稿では,大規模かつリッチなトレーニングデータセットが存在する2次元ポーズ推定と,トランスフォーマーネットワークを用いた2次元から3次元ポーズリフトを提案する。
実験の結果,MPJPEの誤差は2次元ポーズを三角測量した3次元ポーズと比較して最大45%減少することがわかった。
論文 参考訳(メタデータ) (2024-08-20T12:55:14Z) - Hybrid Structure-from-Motion and Camera Relocalization for Enhanced Egocentric Localization [64.08563002366812]
VQ3Dタスクのカメラポーズ推定部を改善するためのモデルアンサンブル戦略を提案する。
中心となるアイデアは、egocentric videoのSfMだけでなく、既存の3Dスキャンと2Dビデオフレームの2D-3Dマッチングも行うことだ。
本手法は,最も重要な指標である総合的な成功率に関して,最高の性能を達成する。
論文 参考訳(メタデータ) (2024-07-10T20:01:35Z) - SelfPose3d: Self-Supervised Multi-Person Multi-View 3d Pose Estimation [2.929565541219051]
複数のカメラビューから複数の人の3dポーズを推定する自己教師型アプローチであるSelfPose3dを提案する。
現在の最先端の完全教師付き手法とは異なり、我々の手法は2次元または3次元の地平線ポーズを必要としない。
Panoptic、Shelf、Campusを含む3つの公開ベンチマークデータセットの実験と分析は、我々のアプローチの有効性を示している。
論文 参考訳(メタデータ) (2024-04-02T15:34:52Z) - EgoLoc: Revisiting 3D Object Localization from Egocentric Videos with
Visual Queries [68.75400888770793]
我々は、エゴセントリックなビデオから2次元オブジェクトを検索することで、3次元のマルチビュー幾何をよりうまく絡み合わせるパイプラインを定式化する。
具体的には、VQ3Dタスクにおける新しい最先端の成果を設定できる87.12%の総合的な成功率を達成する。
論文 参考訳(メタデータ) (2022-12-14T01:28:12Z) - Estimating more camera poses for ego-centric videos is essential for
VQ3D [70.78927854445615]
我々は,エゴセントリックなビデオカメラのポーズ推定問題に対する新たなパイプラインを構築した。
VQ3Dの総成功率は25.8%で、ベースラインで報告された8.7%よりも2倍高い。
論文 参考訳(メタデータ) (2022-11-18T15:16:49Z) - Towards Generalization of 3D Human Pose Estimation In The Wild [73.19542580408971]
3DBodyTex.Poseは、3Dの人間のポーズ推定のタスクに対処するデータセットである。
3DBodyTex.Poseは、さまざまな衣服やポーズで405種類の実際の被写体を含む高品質でリッチなデータを提供する。
論文 参考訳(メタデータ) (2020-04-21T13:31:58Z) - VoxelPose: Towards Multi-Camera 3D Human Pose Estimation in Wild
Environment [80.77351380961264]
複数のカメラビューから複数の人の3Dポーズを推定する手法を提案する。
本稿では,3D空間で動作するエンドツーエンドのソリューションを提案する。
本稿では,各提案の詳細な3次元ポーズを推定するために,Pose Regression Network (PRN)を提案する。
論文 参考訳(メタデータ) (2020-04-13T23:50:01Z) - Cross-View Tracking for Multi-Human 3D Pose Estimation at over 100 FPS [13.191601826570786]
マルチキャリブレーションカメラビューから複数人の3Dポーズを推定する新しい手法を提案する。
異なるカメラ座標の2Dポーズを入力として取り、グローバル座標の正確な3Dポーズを目指しています。
カメラビューが12から28の大規模マルチヒューマンデータセットを提案する。
論文 参考訳(メタデータ) (2020-03-09T08:54:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。