論文の概要: PR-GCN: A Deep Graph Convolutional Network with Point Refinement for 6D
Pose Estimation
- arxiv url: http://arxiv.org/abs/2108.09916v1
- Date: Mon, 23 Aug 2021 03:53:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-24 15:42:05.720589
- Title: PR-GCN: A Deep Graph Convolutional Network with Point Refinement for 6D
Pose Estimation
- Title(参考訳): PR-GCN:6次元空間推定のためのポイントリファインメント付きディープグラフ畳み込みネットワーク
- Authors: Guangyuan Zhou, Huiqun Wang, Jiaxin Chen and Di Huang
- Abstract要約: RGB-Dベースの6Dポーズ推定は、最近顕著な進歩を遂げたが、それでも2つの大きな制限に悩まされている。
本稿では,ポイントリファインメント付きグラフ畳み込みネットワーク(PR-GCN)という新しい深層学習手法を提案する。
まず3Dポイント・クラウドを磨き、ノイズを除去した部品を回収するためにポイント・リファインメント・ネットワーク(PRN)を導入した。
その後、Multi-Modal Fusion Graph Convolutional Network (MMF-GCN) が提示され、RGB-Dの組み合わせが強化される。
- 参考スコア(独自算出の注目度): 24.06845422193827
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: RGB-D based 6D pose estimation has recently achieved remarkable progress, but
still suffers from two major limitations: (1) ineffective representation of
depth data and (2) insufficient integration of different modalities. This paper
proposes a novel deep learning approach, namely Graph Convolutional Network
with Point Refinement (PR-GCN), to simultaneously address the issues above in a
unified way. It first introduces the Point Refinement Network (PRN) to polish
3D point clouds, recovering missing parts with noise removed. Subsequently, the
Multi-Modal Fusion Graph Convolutional Network (MMF-GCN) is presented to
strengthen RGB-D combination, which captures geometry-aware inter-modality
correlation through local information propagation in the graph convolutional
network. Extensive experiments are conducted on three widely used benchmarks,
and state-of-the-art performance is reached. Besides, it is also shown that the
proposed PRN and MMF-GCN modules are well generalized to other frameworks.
- Abstract(参考訳): RGB-D に基づく6D ポーズ推定は近年顕著な進歩を遂げているが,(1) 深度データの非効率な表現,(2) 異なるモダリティの不十分な統合の2つの大きな限界に悩まされている。
本稿では,グラフ畳み込みネットワーク (graph convolutional network with pointfine (pr-gcn)) という新しい深層学習手法を提案する。
まず、3dポイントの雲を磨くためにprn(pointfine network)を導入し、ノイズを除去した欠片を回収した。
その後,マルチモーダル融合グラフ畳み込みネットワーク(mmf-gcn)が提案され,グラフ畳み込みネットワーク内の局所情報伝搬を介して幾何・認識間相関を捉えるrgb-d結合が強化される。
広く使用されている3つのベンチマークで広範な実験が行われ、最先端のパフォーマンスが達成される。
また,提案した PRN および MMF-GCN モジュールは,他のフレームワークによく一般化されている。
関連論文リスト
- Point Cloud Denoising With Fine-Granularity Dynamic Graph Convolutional Networks [58.050130177241186]
ノイズの摂動は、しばしば3次元の点雲を破損させ、表面の再構成、レンダリング、さらなる処理といった下流のタスクを妨げる。
本稿では,GDGCNと呼ばれる粒度動的グラフ畳み込みネットワークについて紹介する。
論文 参考訳(メタデータ) (2024-11-21T14:19:32Z) - Boosting Cross-Domain Point Classification via Distilling Relational Priors from 2D Transformers [59.0181939916084]
従来の3Dネットワークは主に局所幾何学的詳細に焦点を当て、局所幾何学間の位相構造を無視する。
そこで本稿では,大規模画像上においてよく訓練されたトランスフォーマーから前駆体を抽出する,新しい先駆体蒸留法を提案する。
PointDA-10とSim-to-Realデータセットの実験は、提案手法が点クラウド分類におけるUDAの最先端性能を一貫して達成していることを検証する。
論文 参考訳(メタデータ) (2024-07-26T06:29:09Z) - Double-Shot 3D Shape Measurement with a Dual-Branch Network [14.749887303860717]
我々は、異なる構造光(SL)変調を処理するために、デュアルブランチ畳み込みニューラルネットワーク(CNN)-トランスフォーマーネットワーク(PDCNet)を提案する。
PDCNet内では、Transformerブランチを使用してフリンジイメージのグローバルな認識をキャプチャし、CNNブランチはスペックルイメージのローカル詳細を収集するように設計されている。
提案手法は, 自己生成データセット上で高精度な結果が得られる一方で, フランジオーダーの曖昧さを低減できることを示す。
論文 参考訳(メタデータ) (2024-07-19T10:49:26Z) - GraphCSPN: Geometry-Aware Depth Completion via Dynamic GCNs [49.55919802779889]
本稿では,グラフ畳み込みに基づく空間伝搬ネットワーク(GraphCSPN)を提案する。
本研究では、幾何学的表現学習において、畳み込みニューラルネットワークとグラフニューラルネットワークを相補的に活用する。
提案手法は,数段の伝搬ステップのみを使用する場合と比較して,最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-10-19T17:56:03Z) - GLEAM: Greedy Learning for Large-Scale Accelerated MRI Reconstruction [50.248694764703714]
アンロールされたニューラルネットワークは、最近最先端の加速MRI再構成を達成した。
これらのネットワークは、物理ベースの一貫性とニューラルネットワークベースの正規化を交互に組み合わせることで、反復最適化アルゴリズムをアンロールする。
我々は,高次元画像設定のための効率的なトレーニング戦略である加速度MRI再構成のためのグレディ・ラーニングを提案する。
論文 参考訳(メタデータ) (2022-07-18T06:01:29Z) - PC-RGNN: Point Cloud Completion and Graph Neural Network for 3D Object
Detection [57.49788100647103]
LiDARベースの3Dオブジェクト検出は、自動運転にとって重要なタスクです。
現在のアプローチでは、遠方および閉ざされた物体の偏りと部分的な点雲に苦しむ。
本稿では,この課題を2つの解決法で解決する新しい二段階アプローチ,pc-rgnnを提案する。
論文 参考訳(メタデータ) (2020-12-18T18:06:43Z) - Searching Multi-Rate and Multi-Modal Temporal Enhanced Networks for
Gesture Recognition [89.0152015268929]
RGB-Dジェスチャ認識のための最初のニューラルアーキテクチャサーチ(NAS)手法を提案する。
提案手法は,1)3次元中央差分畳畳み込み(3D-CDC)ファミリーによる時間的表現の強化,および多モードレート分岐と横方向接続のための最適化されたバックボーンを含む。
結果として得られたマルチレートネットワークは、RGBと深さ変調と時間力学の関係を理解するための新しい視点を提供する。
論文 参考訳(メタデータ) (2020-08-21T10:45:09Z) - Feedback Graph Convolutional Network for Skeleton-based Action
Recognition [38.782491442635205]
フィードバックグラフ畳み込みネットワーク(FGCN)という新しいネットワークを提案する。
これは、GCNとアクション認識にフィードバックメカニズムを導入する最初の作業である。
3つのデータセット上で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-03-17T07:20:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。