論文の概要: PAM:Point-wise Attention Module for 6D Object Pose Estimation
- arxiv url: http://arxiv.org/abs/2008.05242v1
- Date: Wed, 12 Aug 2020 11:29:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-31 05:32:01.798564
- Title: PAM:Point-wise Attention Module for 6D Object Pose Estimation
- Title(参考訳): pam:6次元物体ポーズ推定のためのポイントワイズアテンションモジュール
- Authors: Myoungha Song, Jeongho Lee, Donghwan Kim
- Abstract要約: 6次元ポーズ推定は3次元回転と3次元変換の物体認識と推定を指す。
従来の手法では、精細化の過程で深度情報を利用したり、各データ空間で特徴を抽出するための異種アーキテクチャとして設計されていた。
本稿では,RGB-Dから効率よく強力な特徴を抽出できるポイントアテンションモジュールを提案する。
- 参考スコア(独自算出の注目度): 2.4815579733050153
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 6D pose estimation refers to object recognition and estimation of 3D rotation
and 3D translation. The key technology for estimating 6D pose is to estimate
pose by extracting enough features to find pose in any environment. Previous
methods utilized depth information in the refinement process or were designed
as a heterogeneous architecture for each data space to extract feature.
However, these methods are limited in that they cannot extract sufficient
feature. Therefore, this paper proposes a Point Attention Module that can
efficiently extract powerful feature from RGB-D. In our Module, attention map
is formed through a Geometric Attention Path(GAP) and Channel Attention
Path(CAP). In GAP, it is designed to pay attention to important information in
geometric information, and CAP is designed to pay attention to important
information in Channel information. We show that the attention module
efficiently creates feature representations without significantly increasing
computational complexity. Experimental results show that the proposed method
outperforms the existing methods in benchmarks, YCB Video and LineMod. In
addition, the attention module was applied to the classification task, and it
was confirmed that the performance significantly improved compared to the
existing model.
- Abstract(参考訳): 6次元ポーズ推定は3次元回転と3次元変換の物体認識と推定を指す。
6dポーズを推定するための重要な技術は、どんな環境でもポーズを見つけるのに十分な特徴を抽出することでポーズを推定することである。
従来の手法では、細分化プロセスで奥行き情報を利用するか、特徴を抽出するために各データ空間の異種アーキテクチャとして設計されていた。
しかし、これらの方法は十分な特徴を抽出できないという点で制限されている。
そこで本稿では,RGB-Dから効率よく強力な特徴を抽出できるポイントアテンションモジュールを提案する。
我々のモジュールでは、幾何学的注意経路(GAP)とチャネル注意経路(CAP)を通して注意マップを形成する。
GAPでは幾何情報における重要な情報に注意を払うように設計されており、CAPはチャネル情報における重要な情報に注意を払うように設計されている。
注意モジュールは計算複雑性を大幅に増大させることなく,効率よく特徴表現を生成する。
実験の結果,提案手法はベンチマーク,ycbビデオ,linemodの既存手法よりも優れていた。
さらに,アテンションモジュールを分類タスクに適用し,既存のモデルと比較して性能が有意に向上したことを確認した。
関連論文リスト
- OccAM's Laser: Occlusion-based Attribution Maps for 3D Object Detectors
on LiDAR Data [8.486063950768694]
本稿では,LiDAR点雲における3次元物体検出のための属性マップを生成する手法を提案する。
これらのマップは、特定のオブジェクトを予測する上で、各3Dポイントの重要性を示している。
本稿では,属性マップの詳細な評価を行い,それらが解釈可能かつ高情報であることを示す。
論文 参考訳(メタデータ) (2022-04-13T18:00:30Z) - ZebraPose: Coarse to Fine Surface Encoding for 6DoF Object Pose
Estimation [76.31125154523056]
物体表面を高密度に表現できる離散ディスクリプタを提案する。
また,微粒化対応予測が可能な微粒化学習戦略を提案する。
論文 参考訳(メタデータ) (2022-03-17T16:16:24Z) - DONet: Learning Category-Level 6D Object Pose and Size Estimation from
Depth Observation [53.55300278592281]
単一深度画像からカテゴリレベルの6次元オブジェクト・ポースとサイズ推定(COPSE)を提案する。
筆者らのフレームワークは,深度チャネルのみの物体のリッチな幾何学的情報に基づいて推論を行う。
我々のフレームワークは、ラベル付き現実世界の画像を必要とする最先端のアプローチと競合する。
論文 参考訳(メタデータ) (2021-06-27T10:41:50Z) - FS-Net: Fast Shape-based Network for Category-Level 6D Object Pose
Estimation with Decoupled Rotation Mechanism [49.89268018642999]
6次元ポーズ推定のための効率的なカテゴリレベルの特徴抽出が可能な高速形状ベースネットワーク(FS-Net)を提案する。
提案手法は,カテゴリレベルおよびインスタンスレベルの6Dオブジェクトのポーズ推定における最先端性能を実現する。
論文 参考訳(メタデータ) (2021-03-12T03:07:24Z) - IAFA: Instance-aware Feature Aggregation for 3D Object Detection from a
Single Image [37.83574424518901]
単一の画像からの3Dオブジェクト検出は、自動運転において重要なタスクです。
本稿では,3次元物体検出の精度向上のために有用な情報を集約するインスタンス認識手法を提案する。
論文 参考訳(メタデータ) (2021-03-05T05:47:52Z) - Densely Nested Top-Down Flows for Salient Object Detection [137.74130900326833]
本稿では,物体検出におけるトップダウンモデリングの役割を再考する。
密度の高いトップダウンフロー(DNTDF)ベースのフレームワークを設計する。
DNTDFのすべての段階において、高いレベルの特徴はプログレッシブ圧縮ショートカットパス(PCSP)を介して読み込まれる。
論文 参考訳(メタデータ) (2021-02-18T03:14:02Z) - Spatial Attention Improves Iterative 6D Object Pose Estimation [52.365075652976735]
本稿では,RGB画像を用いた6次元ポーズ推定の改良手法を提案する。
私たちの主な洞察力は、最初のポーズ推定の後、オブジェクトの異なる空間的特徴に注意を払うことが重要です。
実験により,このアプローチが空間的特徴に順応することを学び,被写体の一部を無視することを学び,データセット間でのポーズ推定を改善することを実証した。
論文 参考訳(メタデータ) (2021-01-05T17:18:52Z) - 3D Point-to-Keypoint Voting Network for 6D Pose Estimation [8.801404171357916]
3次元キーポイントの空間構造特性に基づくRGB-Dデータから6次元ポーズ推定のためのフレームワークを提案する。
提案手法は, LINEMOD と OCCLUSION LINEMOD の2つのベンチマークデータセットで検証する。
論文 参考訳(メタデータ) (2020-12-22T11:43:15Z) - Improving Point Cloud Semantic Segmentation by Learning 3D Object
Detection [102.62963605429508]
ポイントクラウドセマンティックセグメンテーションは、自動運転において重要な役割を果たす。
現在の3Dセマンティックセグメンテーションネットワークは、よく表現されたクラスに対して優れた性能を発揮する畳み込みアーキテクチャに焦点を当てている。
Aware 3D Semantic Detection (DASS) フレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-22T14:17:40Z) - Object 6D Pose Estimation with Non-local Attention [29.929911622127502]
本研究では,オブジェクト検出フレームワークに6次元オブジェクトポーズパラメータ推定を組み込むネットワークを提案する。
提案手法は,YCB- VideoおよびLinemodデータセット上での最先端性能に到達する。
論文 参考訳(メタデータ) (2020-02-20T14:23:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。