論文の概要: EgoCOL: Egocentric Camera pose estimation for Open-world 3D object
Localization @Ego4D challenge 2023
- arxiv url: http://arxiv.org/abs/2306.16606v1
- Date: Thu, 29 Jun 2023 00:17:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-30 15:17:02.168026
- Title: EgoCOL: Egocentric Camera pose estimation for Open-world 3D object
Localization @Ego4D challenge 2023
- Title(参考訳): EgoCOL: Egocentric Camera pose Estimation for Openworld 3D object Localization @Ego4D Challenge 2023
- Authors: Cristhian Forigua, Maria Escobar, Jordi Pont-Tuset, Kevis-Kokitsi
Maninis and Pablo Arbel\'aez
- Abstract要約: オープンワールド3Dオブジェクトローカライゼーションのためのエゴセントリックカメラポーズ推定法であるEgoCOLを提案する。
提案手法は,2次元のカメラポーズをビデオとスキャンで独立に再現し,高いリコール精度と精度で3次元レンダリングにおける自己中心型フレームのカメラポーズを推定する。
- 参考スコア(独自算出の注目度): 9.202585784962276
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present EgoCOL, an egocentric camera pose estimation method for open-world
3D object localization. Our method leverages sparse camera pose reconstructions
in a two-fold manner, video and scan independently, to estimate the camera pose
of egocentric frames in 3D renders with high recall and precision. We
extensively evaluate our method on the Visual Query (VQ) 3D object localization
Ego4D benchmark. EgoCOL can estimate 62% and 59% more camera poses than the
Ego4D baseline in the Ego4D Visual Queries 3D Localization challenge at CVPR
2023 in the val and test sets, respectively. Our code is publicly available at
https://github.com/BCV-Uniandes/EgoCOL
- Abstract(参考訳): オープンワールド3Dオブジェクトローカライゼーションのためのエゴセントリックカメラポーズ推定法であるEgoCOLを提案する。
提案手法は,2次元のカメラポーズをビデオとスキャンで独立に再現し,高いリコール精度と精度で3次元レンダリングにおける自己中心型フレームのカメラポーズを推定する。
提案手法をVisual Query (VQ) 3DオブジェクトローカライズEgo4Dベンチマークで広く評価した。
Ego4D Visual Queries 3D Localization Challenge at CVPR 2023 in the val and test setでは、Ego4Dベースラインの62%と59%のカメラポーズを推定することができる。
私たちのコードはhttps://github.com/BCV-Uniandes/EgoCOLで公開されています。
関連論文リスト
- Attention-Propagation Network for Egocentric Heatmap to 3D Pose Lifting [8.134443548271301]
EgoTAPは,高度に高精度な立体エゴセントリックな3Dポーズ推定のためのヒートマップから3Dポーズリフト法である。
本手法は,従来の最先端技術よりも質的,定量的に優れていた。
論文 参考訳(メタデータ) (2024-02-28T13:50:39Z) - SelfOcc: Self-Supervised Vision-Based 3D Occupancy Prediction [77.15924044466976]
本稿では,ビデオシーケンスのみを用いて,自己指導型3D習熟学習手法を提案する。
まず、画像を3D空間(例えば鳥の目視)に変換し、シーンの3D表現を得る。
そして、前と将来のフレームの2D画像を自己超越信号として描画し、3D表現を学習する。
論文 参考訳(メタデータ) (2023-11-21T17:59:14Z) - Neural Voting Field for Camera-Space 3D Hand Pose Estimation [106.34750803910714]
3次元暗黙表現に基づく1枚のRGB画像からカメラ空間の3Dハンドポーズ推定のための統一的なフレームワークを提案する。
本稿では,カメラフラストラムにおける高密度3次元ポイントワイド投票により,カメラ空間の3次元ハンドポーズを推定する,新しい3次元高密度回帰手法を提案する。
論文 参考訳(メタデータ) (2023-05-07T16:51:34Z) - EgoLoc: Revisiting 3D Object Localization from Egocentric Videos with
Visual Queries [68.75400888770793]
我々は、エゴセントリックなビデオから2次元オブジェクトを検索することで、3次元のマルチビュー幾何をよりうまく絡み合わせるパイプラインを定式化する。
具体的には、VQ3Dタスクにおける新しい最先端の成果を設定できる87.12%の総合的な成功率を達成する。
論文 参考訳(メタデータ) (2022-12-14T01:28:12Z) - Estimating more camera poses for ego-centric videos is essential for
VQ3D [70.78927854445615]
我々は,エゴセントリックなビデオカメラのポーズ推定問題に対する新たなパイプラインを構築した。
VQ3Dの総成功率は25.8%で、ベースラインで報告された8.7%よりも2倍高い。
論文 参考訳(メタデータ) (2022-11-18T15:16:49Z) - 3D Human Pose Estimation in Multi-View Operating Room Videos Using
Differentiable Camera Projections [2.486571221735935]
本稿では,3次元の損失に基づいて2次元CNNをエンドツーエンドにトレーニングすることで,3次元のローカライゼーションを直接最適化することを提案する。
MVORデータセットの動画を用いて、このエンドツーエンドアプローチが2次元空間での最適化より優れていることを示す。
論文 参考訳(メタデータ) (2022-10-21T09:00:02Z) - Towards Generalization of 3D Human Pose Estimation In The Wild [73.19542580408971]
3DBodyTex.Poseは、3Dの人間のポーズ推定のタスクに対処するデータセットである。
3DBodyTex.Poseは、さまざまな衣服やポーズで405種類の実際の被写体を含む高品質でリッチなデータを提供する。
論文 参考訳(メタデータ) (2020-04-21T13:31:58Z) - VoxelPose: Towards Multi-Camera 3D Human Pose Estimation in Wild
Environment [80.77351380961264]
複数のカメラビューから複数の人の3Dポーズを推定する手法を提案する。
本稿では,3D空間で動作するエンドツーエンドのソリューションを提案する。
本稿では,各提案の詳細な3次元ポーズを推定するために,Pose Regression Network (PRN)を提案する。
論文 参考訳(メタデータ) (2020-04-13T23:50:01Z) - Cross-View Tracking for Multi-Human 3D Pose Estimation at over 100 FPS [13.191601826570786]
マルチキャリブレーションカメラビューから複数人の3Dポーズを推定する新しい手法を提案する。
異なるカメラ座標の2Dポーズを入力として取り、グローバル座標の正確な3Dポーズを目指しています。
カメラビューが12から28の大規模マルチヒューマンデータセットを提案する。
論文 参考訳(メタデータ) (2020-03-09T08:54:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。