論文の概要: Yolo-Key-6D: Single Stage Monocular 6D Pose Estimation with Keypoint Enhancements
- arxiv url: http://arxiv.org/abs/2603.03879v1
- Date: Wed, 04 Mar 2026 09:31:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-05 21:29:15.251291
- Title: Yolo-Key-6D: Single Stage Monocular 6D Pose Estimation with Keypoint Enhancements
- Title(参考訳): Yolo-Key-6D:キーポイント拡張による単眼6D画像推定
- Authors: Kemal Alperen Çetiner, Hazım Kemal Ekenel,
- Abstract要約: モノクル6次元ポーズ推定のための新しい一段階のエンドツーエンドフレームワークであるYolo-Key-6Dを提案する。
提案手法は,オブジェクトの3次元境界ボックス角の2次元投影を補強する補助ヘッドを統合することで,YOLOベースのアーキテクチャを強化する。
YOLO-Key-6D は ADD(-S) 0.1d でそれぞれ96.24% と69.41% の競争精度を達成している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Estimating the 6D pose of objects from a single RGB image is a critical task for robotics and extended reality applications. However, state-of-the-art multi stage methods often suffer from high latency, making them unsuitable for real time use. In this paper, we present Yolo-Key-6D, a novel single stage, end-to-end framework for monocular 6D pose estimation designed for both speed and accuracy. Our approach enhances a YOLO based architecture by integrating an auxiliary head that regresses the 2D projections of an object's 3D bounding box corners. This keypoint detection task significantly improves the network's understanding of 3D geometry. For stable end-to-end training, we directly regress rotation using a continuous 9D representation projected to SO(3) via singular value decomposition. On the LINEMOD and LINEMOD-Occluded benchmarks, YOLO-Key-6D achieves competitive accuracy scores of 96.24% and 69.41%, respectively, with the ADD(-S) 0.1d metric, while proving itself to operate in real time. Our results demonstrate that a carefully designed single stage method can provide a practical and effective balance of performance and efficiency for real world deployment.
- Abstract(参考訳): 単一のRGB画像からオブジェクトの6Dポーズを推定することは、ロボット工学および拡張現実アプリケーションにとって重要なタスクである。
しかし、最先端のマルチステージ手法は、しばしば高いレイテンシに悩まされるため、リアルタイム利用には適さない。
本稿では,高速かつ高精度なモノクロ6Dポーズ推定のための,新しい単一ステージのエンドツーエンドフレームワークであるYolo-Key-6Dを提案する。
提案手法は,オブジェクトの3次元境界ボックス角の2次元投影を補強する補助ヘッドを統合することで,YOLOベースのアーキテクチャを強化する。
このキーポイント検出タスクはネットワークの3次元幾何学的理解を大幅に改善する。
安定なエンドツーエンドトレーニングでは,SO(3)に投影された連続9次元表現を特異値分解により直接回帰回転する。
LINEMOD とLINEMOD-Occluded のベンチマークでは、YOLO-Key-6D は ADD(-S) 0.1d で96.24% と 69.41% の競合精度のスコアを得た。
提案手法は, 実世界の展開において, 実用的で効果的な性能バランスと効率のバランスを, 慎重に設計した単一ステージ方式で実現できることを実証した。
関連論文リスト
- Any6D: Model-free 6D Pose Estimation of Novel Objects [76.30057578269668]
我々は,6次元オブジェクトのポーズ推定のためのモデルフリーフレームワークであるAny6Dを紹介する。
新たなシーンでは、未知の物体の6Dポーズと大きさを推定するために、1枚のRGB-Dアンカー画像しか必要としない。
提案手法を5つの挑戦的データセットで評価する。
論文 参考訳(メタデータ) (2025-03-24T13:46:21Z) - 6DOPE-GS: Online 6D Object Pose Estimation using Gaussian Splatting [7.7145084897748974]
1台のRGB-Dカメラで6Dオブジェクトのポーズを推定・追跡する新しい手法である6DOPE-GSを提案する。
その結果,6DOPE-GSはモデルレス同時ポーズトラッキングと再構築のための最先端ベースラインの性能と一致していることがわかった。
また,実世界の環境下での動的物体追跡と再構成のための手法の適合性を実証した。
論文 参考訳(メタデータ) (2024-12-02T14:32:19Z) - FSD: Fast Self-Supervised Single RGB-D to Categorical 3D Objects [37.175069234979645]
本研究は,実世界の3次元ラベル付きデータに依存しない3次元オブジェクト認識の課題に対処する。
我々のゴールは、単一のRGB-D画像内のオブジェクトの3次元形状、サイズ、および6次元のポーズを予測し、カテゴリレベルで動作し、推論中のCADモデルの必要性を排除することである。
論文 参考訳(メタデータ) (2023-10-19T17:59:09Z) - UniPAD: A Universal Pre-training Paradigm for Autonomous Driving [74.34701012543968]
3次元微分レンダリングを応用した新しい自己教師型学習パラダイムUniPADを提案する。
UniPADは暗黙的に3D空間を符号化し、連続した3D形状の構造の再構築を容易にする。
本手法はライダーカメラ,カメラカメラ,ライダーカメラベースラインを9.1,7.7,6.9 NDSで大幅に改善する。
論文 参考訳(メタデータ) (2023-10-12T14:39:58Z) - 6D Pose Estimation with Combined Deep Learning and 3D Vision Techniques
for a Fast and Accurate Object Grasping [0.19686770963118383]
リアルタイムロボットの把握は高度な自律システムにとって最優先の目標である。
本稿では,ディープニューラルネットワークを用いた高速な2次元物体認識を組み合わせた2段階手法を提案する。
提案手法は、効率と精度の両方を必要とせず、リアルタイムアプリケーションで堅牢に動作する可能性がある。
論文 参考訳(メタデータ) (2021-11-11T15:36:55Z) - Learning Stereopsis from Geometric Synthesis for 6D Object Pose
Estimation [11.999630902627864]
現在のモノクラーベース6Dオブジェクトポーズ推定法は、一般的にRGBDベースの手法よりも競争力の低い結果が得られる。
本稿では,短いベースライン2ビュー設定による3次元幾何体積に基づくポーズ推定手法を提案する。
実験により,本手法は最先端の単分子法よりも優れ,異なる物体やシーンにおいて堅牢であることが示された。
論文 参考訳(メタデータ) (2021-09-25T02:55:05Z) - SO-Pose: Exploiting Self-Occlusion for Direct 6D Pose Estimation [98.83762558394345]
SO-Poseは、オブジェクトの6自由度(6DoF)をすべて、単一のRGBイメージから散らばった環境でポーズさせるフレームワークである。
本稿では,3次元オブジェクトの2層表現を確立するために,自己閉塞に関する新たな推論を導入する。
対応性,自己閉塞性,6次元ポーズを整列する層間合成により,精度とロバスト性をさらに向上させることができる。
論文 参考訳(メタデータ) (2021-08-18T19:49:29Z) - GDRNPP: A Geometry-guided and Fully Learning-based Object Pose Estimator [51.89441403642665]
剛体物体の6次元ポーズ推定はコンピュータビジョンにおける長年の課題である。
近年、ディープラーニングの出現は、信頼できる6Dポーズを予測するための畳み込みニューラルネットワーク(CNN)の可能性を明らかにしている。
本稿では,完全学習型オブジェクトポーズ推定器を提案する。
論文 参考訳(メタデータ) (2021-02-24T09:11:31Z) - Synthetic Training for Monocular Human Mesh Recovery [100.38109761268639]
本稿では,RGB画像と大規模に異なる複数の身体部位の3次元メッシュを推定することを目的とする。
主な課題は、2D画像のすべての身体部分の3Dアノテーションを完備するトレーニングデータがないことである。
本稿では,D2S(Deep-to-scale)投影法を提案する。
論文 参考訳(メタデータ) (2020-10-27T03:31:35Z) - 3DSSD: Point-based 3D Single Stage Object Detector [61.67928229961813]
本稿では,3DSSDと命名された点ベース3次元単段物体検出器を提案し,精度と効率のバランスが良好であることを示す。
提案手法は,最先端のボクセルをベースとした一段法を大差で上回り,二段法に匹敵する性能を有する。
論文 参考訳(メタデータ) (2020-02-24T12:01:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。