論文の概要: Sparse Color-Code Net: Real-Time RGB-Based 6D Object Pose Estimation on Edge Devices
- arxiv url: http://arxiv.org/abs/2406.02977v1
- Date: Wed, 5 Jun 2024 06:21:48 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-06 19:49:25.087534
- Title: Sparse Color-Code Net: Real-Time RGB-Based 6D Object Pose Estimation on Edge Devices
- Title(参考訳): Sparse Color-Code Net:エッジデバイス上でのリアルタイムRGBベースの6次元オブジェクトマップ推定
- Authors: Xingjian Yang, Zhitao Yu, Ashis G. Banerjee,
- Abstract要約: 提案するColor-Code Net (SCCN) は,この要件に対処する明確かつ簡潔なパイプライン設計を具現化したものである。
SCCNはRGB画像中の対象オブジェクトに対して画素レベルの予測を行い、パースペクティブ-n-Pointプロセスの高速化に必須なオブジェクト幾何学的特徴の空間性を利用する。
特に、ベンチマークLINEMODデータセットとOcclusionMODデータセットで、19フレーム/秒(FPS)と6FPSの見積率を実現している。
- 参考スコア(独自算出の注目度): 2.3281513013731145
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As robotics and augmented reality applications increasingly rely on precise and efficient 6D object pose estimation, real-time performance on edge devices is required for more interactive and responsive systems. Our proposed Sparse Color-Code Net (SCCN) embodies a clear and concise pipeline design to effectively address this requirement. SCCN performs pixel-level predictions on the target object in the RGB image, utilizing the sparsity of essential object geometry features to speed up the Perspective-n-Point (PnP) computation process. Additionally, it introduces a novel pixel-level geometry-based object symmetry representation that seamlessly integrates with the initial pose predictions, effectively addressing symmetric object ambiguities. SCCN notably achieves an estimation rate of 19 frames per second (FPS) and 6 FPS on the benchmark LINEMOD dataset and the Occlusion LINEMOD dataset, respectively, for an NVIDIA Jetson AGX Xavier, while consistently maintaining high estimation accuracy at these rates.
- Abstract(参考訳): ロボット工学や拡張現実のアプリケーションは、正確で効率的な6Dオブジェクトのポーズ推定にますます依存しているため、よりインタラクティブでレスポンシブなシステムでは、エッジデバイス上でのリアルタイムのパフォーマンスが要求される。
提案するスパースカラーコードネット(SCCN)は,この要求に効果的に対応するために,明確かつ簡潔なパイプライン設計を具現化する。
SCCNはRGB画像中の対象オブジェクトに対して画素レベルの予測を行い、本質的なオブジェクト幾何学的特徴の空間を利用して、パースペクティブ-n-Point(PnP)計算プロセスを高速化する。
さらに、新しいピクセルレベルの幾何学に基づくオブジェクト対称性表現を導入し、初期ポーズ予測とシームレスに統合し、対称オブジェクトの曖昧さに効果的に対処する。
SCCNは、NVIDIA Jetson AGX Xavierに対して、ベンチマークLINEMODデータセットとOcclusion LINEMODデータセットで、それぞれ19フレーム/秒(FPS)と6FPSの見積率を実現し、高い推定精度を連続的に維持する。
関連論文リスト
- RDPN6D: Residual-based Dense Point-wise Network for 6Dof Object Pose Estimation Based on RGB-D Images [13.051302134031808]
単一のRGB-D画像を用いてオブジェクトの6DoFポーズを計算する新しい手法を提案する。
オブジェクトのポーズを直接予測する既存の手法や、ポーズ回復のためのスパースキーポイントに依存する既存の手法とは異なり、我々のアプローチは密度の高い対応を使ってこの課題に対処する。
論文 参考訳(メタデータ) (2024-05-14T10:10:45Z) - InstantSplat: Unbounded Sparse-view Pose-free Gaussian Splatting in 40 Seconds [91.77050739918037]
スパース画像からの新しいビュー合成(NVS)は3次元コンピュータビジョンにおいて大きく進歩している。
これはStructure-from-Motion (SfM) を用いたカメラパラメータの正確な初期推定に依存する
本研究では,スパースビュー画像から堅牢なNVSを向上するための,新規で効率的なフレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-29T17:29:58Z) - RGB-based Category-level Object Pose Estimation via Decoupled Metric
Scale Recovery [72.13154206106259]
本研究では、6次元のポーズとサイズ推定を分離し、不完全なスケールが剛性変換に与える影響を緩和するパイプラインを提案する。
具体的には,事前学習した単分子推定器を用いて局所的な幾何学的情報を抽出する。
別個のブランチは、カテゴリレベルの統計に基づいてオブジェクトのメートル法スケールを直接復元するように設計されている。
論文 参考訳(メタデータ) (2023-09-19T02:20:26Z) - MV-ROPE: Multi-view Constraints for Robust Category-level Object Pose and Size Estimation [23.615122326731115]
本稿では,RGBビデオストリームを利用した新しいソリューションを提案する。
本フレームワークは,スケール対応単分子高密度SLAMソリューション,軽量オブジェクトポーズ予測器,オブジェクトレベルのポーズグラフの3つのモジュールから構成される。
提案手法は,高精細度情報を用いた公開データセットを用いた場合,最先端のRGB-D手法に匹敵する性能を示す。
論文 参考訳(メタデータ) (2023-08-17T08:29:54Z) - 3D Neural Embedding Likelihood: Probabilistic Inverse Graphics for
Robust 6D Pose Estimation [50.15926681475939]
逆グラフィックスは2次元画像から3次元シーン構造を推論することを目的としている。
確率モデルを導入し,不確実性を定量化し,6次元ポーズ推定タスクにおけるロバスト性を実現する。
3DNELは、RGBから学んだニューラルネットワークの埋め込みと深度情報を組み合わせることで、RGB-D画像からのsim-to-real 6Dオブジェクトのポーズ推定の堅牢性を向上させる。
論文 参考訳(メタデータ) (2023-02-07T20:48:35Z) - FS-Net: Fast Shape-based Network for Category-Level 6D Object Pose
Estimation with Decoupled Rotation Mechanism [49.89268018642999]
6次元ポーズ推定のための効率的なカテゴリレベルの特徴抽出が可能な高速形状ベースネットワーク(FS-Net)を提案する。
提案手法は,カテゴリレベルおよびインスタンスレベルの6Dオブジェクトのポーズ推定における最先端性能を実現する。
論文 参考訳(メタデータ) (2021-03-12T03:07:24Z) - Spatial Attention Improves Iterative 6D Object Pose Estimation [52.365075652976735]
本稿では,RGB画像を用いた6次元ポーズ推定の改良手法を提案する。
私たちの主な洞察力は、最初のポーズ推定の後、オブジェクトの異なる空間的特徴に注意を払うことが重要です。
実験により,このアプローチが空間的特徴に順応することを学び,被写体の一部を無視することを学び,データセット間でのポーズ推定を改善することを実証した。
論文 参考訳(メタデータ) (2021-01-05T17:18:52Z) - 3D Point-to-Keypoint Voting Network for 6D Pose Estimation [8.801404171357916]
3次元キーポイントの空間構造特性に基づくRGB-Dデータから6次元ポーズ推定のためのフレームワークを提案する。
提案手法は, LINEMOD と OCCLUSION LINEMOD の2つのベンチマークデータセットで検証する。
論文 参考訳(メタデータ) (2020-12-22T11:43:15Z) - Object-based Illumination Estimation with Rendering-aware Neural
Networks [56.01734918693844]
個々の物体とその局所画像領域のRGBD外観から高速環境光推定手法を提案する。
推定照明により、仮想オブジェクトは実際のシーンと一貫性のあるシェーディングでARシナリオでレンダリングできる。
論文 参考訳(メタデータ) (2020-08-06T08:23:19Z) - Object-oriented SLAM using Quadrics and Symmetry Properties for Indoor
Environments [11.069661312755034]
本稿ではRGB-Dカメラを用いたスパースオブジェクトレベルのSLAMアルゴリズムを提案する。
二次表現は、その位置、向き、占有空間を含むオブジェクトをコンパクトにモデル化するランドマークとして用いられる。
実験の結果,特に移動ロボットの前方軌道における最先端のアルゴリズムと比較して,提案アルゴリズムは2次再構成の精度と収束速度を大幅に向上させることがわかった。
論文 参考訳(メタデータ) (2020-04-11T04:15:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。