論文の概要: Towards real-time object recognition and pose estimation in point clouds
- arxiv url: http://arxiv.org/abs/2011.13669v1
- Date: Fri, 27 Nov 2020 11:10:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-20 02:12:10.536277
- Title: Towards real-time object recognition and pose estimation in point clouds
- Title(参考訳): 点群における実時間物体認識とポーズ推定
- Authors: Marlon Marcon, Olga Regina Pereira Bellon and Luciano Silva
- Abstract要約: 本稿では,オブジェクトの細かな6DoFのポーズを,リアルタイムに現実的なシナリオに適用する新しいパイプラインを提案する。
提案手法では,RGB-D Scenesデータセットの精度が約83%向上した。
- 参考スコア(独自算出の注目度): 2.1055643409860743
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Object recognition and 6DoF pose estimation are quite challenging tasks in
computer vision applications. Despite efficiency in such tasks, standard
methods deliver far from real-time processing rates. This paper presents a
novel pipeline to estimate a fine 6DoF pose of objects, applied to realistic
scenarios in real-time. We split our proposal into three main parts. Firstly, a
Color feature classification leverages the use of pre-trained CNN color
features trained on the ImageNet for object detection. A Feature-based
registration module conducts a coarse pose estimation, and finally, a
Fine-adjustment step performs an ICP-based dense registration. Our proposal
achieves, in the best case, an accuracy performance of almost 83\% on the RGB-D
Scenes dataset. Regarding processing time, the object detection task is done at
a frame processing rate up to 90 FPS, and the pose estimation at almost 14 FPS
in a full execution strategy. We discuss that due to the proposal's modularity,
we could let the full execution occurs only when necessary and perform a
scheduled execution that unlocks real-time processing, even for multitask
situations.
- Abstract(参考訳): 物体認識と6次元ポーズ推定はコンピュータビジョン応用において非常に難しい課題である。
このようなタスクの効率性にも拘わらず、標準メソッドはリアルタイム処理速度に遠く及ばない。
本稿では,オブジェクトの細かな6DoFのポーズを,リアルタイムに現実的なシナリオに適用する新しいパイプラインを提案する。
私たちは提案を3つに分けた。
まず、Color機能分類では、ImageNetでトレーニングされたトレーニング済みのCNNカラー機能を使用してオブジェクト検出を行う。
特徴ベース登録モジュールは粗いポーズ推定を行い、最後に細調整ステップはICPベースの密登録を行う。
提案手法は,rgb-dシーンのデータセット上で約83\%の精度を実現する。
処理時間については、オブジェクト検出タスクをフレーム処理速度最大90FPSで行い、フル実行戦略において、ポーズ推定を約14FPSで行う。
我々は,提案のモジュール性により,必要時にのみ実行可能とし,マルチタスクの状況でもリアルタイム処理をアンロックするスケジュール実行を行うことができることを議論した。
関連論文リスト
- SEMPose: A Single End-to-end Network for Multi-object Pose Estimation [13.131534219937533]
SEMPoseは、エンドツーエンドの多目的ポーズ推定ネットワークである。
RGB画像以外の入力を必要とせずに32FPSで推論を行うことができる。
複数のオブジェクトのポーズをリアルタイムで正確に推定でき、対象オブジェクトの数の影響を受けない推論時間に影響を及ぼす。
論文 参考訳(メタデータ) (2024-11-21T10:37:54Z) - KRONC: Keypoint-based Robust Camera Optimization for 3D Car Reconstruction [58.04846444985808]
KRONCは、オブジェクトに関する事前知識を活用して、セマンティックキーポイントを通してその表現を再構築することで、ビューポーズを推論する新しいアプローチである。
車両シーンに焦点を当てたKRONCは、キーポイントのバックプロジェクションを特異点に収束させることを目的とした光最適化問題の解として、ビューの位置を推定することができる。
論文 参考訳(メタデータ) (2024-09-09T08:08:05Z) - Instance-specific 6-DoF Object Pose Estimation from Minimal Annotations [6.24717069374781]
本稿では,単一のRGB画像からオブジェクトの連続6-DoFポーズを推定するためのパイプラインを高速に訓練し,デプロイする方法を提案する。
キーとなるアイデアは、既知のカメラのポーズと剛体形状を利用して、大きなラベル付きデータセットの生成を部分的に自動化することだ。
データセットは十分なドメインランダム化とともに、セマンティックキーポイントを予測するためのディープニューラルネットワークのトレーニングを監督するために使用される。
論文 参考訳(メタデータ) (2022-07-27T03:00:28Z) - DPODv2: Dense Correspondence-Based 6 DoF Pose Estimation [24.770767430749288]
DPODv2(Dense Pose Object Detector)と呼ばれる3ステージ6DoFオブジェクト検出手法を提案する。
本研究では,2次元物体検出器と高密度対応推定ネットワークを組み合わせることで,フル6DFのポーズを推定する多視点ポーズ補正手法を提案する。
DPODv2は、使用済みのデータモダリティとトレーニングデータの種類によらず、高速でスケーラブルなまま、すべてのデータに対して優れた結果を得る。
論文 参考訳(メタデータ) (2022-07-06T16:48:56Z) - Unseen Object 6D Pose Estimation: A Benchmark and Baselines [62.8809734237213]
本稿では,新しい物体の6次元ポーズ推定をアルゴリズムで行えるようにするための新しいタスクを提案する。
実画像と合成画像の両方でデータセットを収集し、テストセットで最大48個の未確認オブジェクトを収集する。
エンド・ツー・エンドの3D対応ネットワークをトレーニングすることにより、未確認物体と部分ビューRGBD画像との対応点を高精度かつ効率的に見つけることができる。
論文 参考訳(メタデータ) (2022-06-23T16:29:53Z) - Semantic keypoint-based pose estimation from single RGB frames [64.80395521735463]
一つのRGB画像からオブジェクトの連続6-DoFポーズを推定する手法を提案する。
このアプローチは、畳み込みネットワーク(convnet)によって予測されるセマンティックキーポイントと、変形可能な形状モデルを組み合わせる。
提案手法は,インスタンスベースのシナリオとクラスベースのシナリオの両方に対して,6-DoFオブジェクトのポーズを正確に復元できることを示す。
論文 参考訳(メタデータ) (2022-04-12T15:03:51Z) - Sparse Instance Activation for Real-Time Instance Segmentation [72.23597664935684]
本稿では,リアルタイムインスタンスセグメンテーションのための概念的・効率的・完全畳み込み型フレームワークを提案する。
SparseInstは非常に高速な推論速度を持ち、COCOベンチマークで40 FPSと37.9 APを達成した。
論文 参考訳(メタデータ) (2022-03-24T03:15:39Z) - ZebraPose: Coarse to Fine Surface Encoding for 6DoF Object Pose
Estimation [76.31125154523056]
物体表面を高密度に表現できる離散ディスクリプタを提案する。
また,微粒化対応予測が可能な微粒化学習戦略を提案する。
論文 参考訳(メタデータ) (2022-03-17T16:16:24Z) - 6D Pose Estimation with Combined Deep Learning and 3D Vision Techniques
for a Fast and Accurate Object Grasping [0.19686770963118383]
リアルタイムロボットの把握は高度な自律システムにとって最優先の目標である。
本稿では,ディープニューラルネットワークを用いた高速な2次元物体認識を組み合わせた2段階手法を提案する。
提案手法は、効率と精度の両方を必要とせず、リアルタイムアプリケーションで堅牢に動作する可能性がある。
論文 参考訳(メタデータ) (2021-11-11T15:36:55Z) - Continuous close-range 3D object pose estimation [1.4502611532302039]
視覚に基づく3Dポーズ推定は、固定位置に配置されない可能性のあるオブジェクトを正確に扱う必要がある。
本稿では,勾配近似粒子フィルタを用いた3次元ポーズ推定手法を提案する。
これにより、タスク実行中にこの手法をオンラインに適用して、貴重なサイクル時間を節約することができる。
論文 参考訳(メタデータ) (2020-10-02T07:48:17Z) - I Like to Move It: 6D Pose Estimation as an Action Decision Process [53.63776807432945]
オブジェクトのポーズ推定は、ロボットビジョンとARの不可欠な部分である。
以前の6Dポーズ検索パイプラインは、問題を回帰タスクとして扱うか、または、ポーズ空間を識別して分類する。
我々はこのパラダイムを変更し、初期ポーズを段階的に離散的に更新するアクション決定プロセスとして問題を再構築する。
ニューラルネットワークが推定すると、単一のRGBイメージから反復的に移動し、許容できる最終ポーズを決定する。
論文 参考訳(メタデータ) (2020-09-26T20:05:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。