論文の概要: PR-GCN: A Deep Graph Convolutional Network with Point Refinement for 6D
Pose Estimation
- arxiv url: http://arxiv.org/abs/2108.09916v1
- Date: Mon, 23 Aug 2021 03:53:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-24 15:42:05.720589
- Title: PR-GCN: A Deep Graph Convolutional Network with Point Refinement for 6D
Pose Estimation
- Title(参考訳): PR-GCN:6次元空間推定のためのポイントリファインメント付きディープグラフ畳み込みネットワーク
- Authors: Guangyuan Zhou, Huiqun Wang, Jiaxin Chen and Di Huang
- Abstract要約: RGB-Dベースの6Dポーズ推定は、最近顕著な進歩を遂げたが、それでも2つの大きな制限に悩まされている。
本稿では,ポイントリファインメント付きグラフ畳み込みネットワーク(PR-GCN)という新しい深層学習手法を提案する。
まず3Dポイント・クラウドを磨き、ノイズを除去した部品を回収するためにポイント・リファインメント・ネットワーク(PRN)を導入した。
その後、Multi-Modal Fusion Graph Convolutional Network (MMF-GCN) が提示され、RGB-Dの組み合わせが強化される。
- 参考スコア(独自算出の注目度): 24.06845422193827
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: RGB-D based 6D pose estimation has recently achieved remarkable progress, but
still suffers from two major limitations: (1) ineffective representation of
depth data and (2) insufficient integration of different modalities. This paper
proposes a novel deep learning approach, namely Graph Convolutional Network
with Point Refinement (PR-GCN), to simultaneously address the issues above in a
unified way. It first introduces the Point Refinement Network (PRN) to polish
3D point clouds, recovering missing parts with noise removed. Subsequently, the
Multi-Modal Fusion Graph Convolutional Network (MMF-GCN) is presented to
strengthen RGB-D combination, which captures geometry-aware inter-modality
correlation through local information propagation in the graph convolutional
network. Extensive experiments are conducted on three widely used benchmarks,
and state-of-the-art performance is reached. Besides, it is also shown that the
proposed PRN and MMF-GCN modules are well generalized to other frameworks.
- Abstract(参考訳): RGB-D に基づく6D ポーズ推定は近年顕著な進歩を遂げているが,(1) 深度データの非効率な表現,(2) 異なるモダリティの不十分な統合の2つの大きな限界に悩まされている。
本稿では,グラフ畳み込みネットワーク (graph convolutional network with pointfine (pr-gcn)) という新しい深層学習手法を提案する。
まず、3dポイントの雲を磨くためにprn(pointfine network)を導入し、ノイズを除去した欠片を回収した。
その後,マルチモーダル融合グラフ畳み込みネットワーク(mmf-gcn)が提案され,グラフ畳み込みネットワーク内の局所情報伝搬を介して幾何・認識間相関を捉えるrgb-d結合が強化される。
広く使用されている3つのベンチマークで広範な実験が行われ、最先端のパフォーマンスが達成される。
また,提案した PRN および MMF-GCN モジュールは,他のフレームワークによく一般化されている。
関連論文リスト
- GraphCSPN: Geometry-Aware Depth Completion via Dynamic GCNs [49.55919802779889]
本稿では,グラフ畳み込みに基づく空間伝搬ネットワーク(GraphCSPN)を提案する。
本研究では、幾何学的表現学習において、畳み込みニューラルネットワークとグラフニューラルネットワークを相補的に活用する。
提案手法は,数段の伝搬ステップのみを使用する場合と比較して,最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-10-19T17:56:03Z) - GLEAM: Greedy Learning for Large-Scale Accelerated MRI Reconstruction [50.248694764703714]
アンロールされたニューラルネットワークは、最近最先端の加速MRI再構成を達成した。
これらのネットワークは、物理ベースの一貫性とニューラルネットワークベースの正規化を交互に組み合わせることで、反復最適化アルゴリズムをアンロールする。
我々は,高次元画像設定のための効率的なトレーニング戦略である加速度MRI再構成のためのグレディ・ラーニングを提案する。
論文 参考訳(メタデータ) (2022-07-18T06:01:29Z) - Equivariance-bridged SO(2)-Invariant Representation Learning using Graph
Convolutional Network [0.1657441317977376]
回転に対して堅牢な畳み込みニューラルネットワーク(CNN)のトレーニングは、主にデータ拡張で行われている。
本稿では,ネットワークの構造的回転不変性を実現することにより,データ拡張への依存の軽減を図っている。
本手法は,回転MNISTおよびCIFAR-10画像の最先端画像分類性能を実現する。
論文 参考訳(メタデータ) (2021-06-18T08:37:45Z) - FFB6D: A Full Flow Bidirectional Fusion Network for 6D Pose Estimation [54.666329929930455]
単一RGBD画像からの6次元ポーズ推定のための双方向融合ネットワークであるFFB6Dを提案する。
表現学習と出力表現選択のための表現情報と幾何学情報を組み合わせることを学ぶ。
提案手法は,いくつかのベンチマークにおいて,最先端の手法よりも大きなマージンを達成している。
論文 参考訳(メタデータ) (2021-03-03T08:07:29Z) - PC-RGNN: Point Cloud Completion and Graph Neural Network for 3D Object
Detection [57.49788100647103]
LiDARベースの3Dオブジェクト検出は、自動運転にとって重要なタスクです。
現在のアプローチでは、遠方および閉ざされた物体の偏りと部分的な点雲に苦しむ。
本稿では,この課題を2つの解決法で解決する新しい二段階アプローチ,pc-rgnnを提案する。
論文 参考訳(メタデータ) (2020-12-18T18:06:43Z) - 2D-3D Geometric Fusion Network using Multi-Neighbourhood Graph
Convolution for RGB-D Indoor Scene Classification [0.8629912408966145]
本稿では,3次元幾何特徴と2次元テクスチャ特徴を組み合わせた2次元3次元フュージョンステージを提案する。
実験の結果、NYU-Depth-V2とSUN RGB-Dデータセットを用いて、RGB-D屋内シーン分類作業において、提案手法が現在の最先端技術よりも優れていることが示された。
論文 参考訳(メタデータ) (2020-09-23T13:58:12Z) - Searching Multi-Rate and Multi-Modal Temporal Enhanced Networks for
Gesture Recognition [89.0152015268929]
RGB-Dジェスチャ認識のための最初のニューラルアーキテクチャサーチ(NAS)手法を提案する。
提案手法は,1)3次元中央差分畳畳み込み(3D-CDC)ファミリーによる時間的表現の強化,および多モードレート分岐と横方向接続のための最適化されたバックボーンを含む。
結果として得られたマルチレートネットワークは、RGBと深さ変調と時間力学の関係を理解するための新しい視点を提供する。
論文 参考訳(メタデータ) (2020-08-21T10:45:09Z) - Simple and Deep Graph Convolutional Networks [63.76221532439285]
グラフ畳み込みネットワーク(GCN)は、グラフ構造化データに対する強力なディープラーニングアプローチである。
その成功にもかかわらず、現在のGCNモデルは、エムの過度に滑らかな問題のため、ほとんどが浅くなっている。
本稿では,2つの単純かつ効果的な手法を用いて,バニラGCNモデルを拡張したGCNIIを提案する。
論文 参考訳(メタデータ) (2020-07-04T16:18:06Z) - Feedback Graph Convolutional Network for Skeleton-based Action
Recognition [38.782491442635205]
フィードバックグラフ畳み込みネットワーク(FGCN)という新しいネットワークを提案する。
これは、GCNとアクション認識にフィードバックメカニズムを導入する最初の作業である。
3つのデータセット上で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-03-17T07:20:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。