論文の概要: RGBD-Glue: General Feature Combination for Robust RGB-D Point Cloud Registration
- arxiv url: http://arxiv.org/abs/2405.07594v2
- Date: Wed, 21 Aug 2024 05:32:47 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-22 22:25:29.071379
- Title: RGBD-Glue: General Feature Combination for Robust RGB-D Point Cloud Registration
- Title(参考訳): RGBD-Glue:ロバストなRGB-Dポイントクラウド登録のための一般的な機能の組み合わせ
- Authors: Congjia Chen, Xiaoyu Jia, Yanhong Zheng, Yufu Qu,
- Abstract要約: より緩く、より効果的に組み合わせられる新しい機能の組み合わせフレームワークを提案する。
変換一貫性に基づいた明示的なフィルタは,各機能の弱点を克服可能な組み合わせフレームワーク用に設計されている。
ScanNet と 3DMatch の実験により,本手法が最先端の性能を実現することを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Point cloud registration is a fundamental task for estimating rigid transformations between point clouds. Previous studies have used geometric information for extracting features, matching and estimating transformation. Recently, owing to the advancement of RGB-D sensors, researchers have attempted to combine visual and geometric information to improve registration performance. However, these studies focused on extracting distinctive features by deep feature fusion, which cannot effectively solve the negative effects of each feature's weakness, and cannot sufficiently leverage the valid information. In this paper, we propose a new feature combination framework, which applies a looser but more effective combination. An explicit filter based on transformation consistency is designed for the combination framework, which can overcome each feature's weakness. And an adaptive threshold determined by the error distribution is proposed to extract more valid information from the two types of features. Owing to the distinctive design, our proposed framework can estimate more accurate correspondences and is applicable to both hand-crafted and learning-based feature descriptors. Experiments on ScanNet and 3DMatch show that our method achieves a state-of-the-art performance.
- Abstract(参考訳): ポイントクラウド登録は、ポイントクラウド間の厳密な変換を推定するための基本的なタスクである。
これまでの研究では、幾何学的情報を用いて特徴の抽出、マッチング、および変換を推定してきた。
近年,RGB-Dセンサの進歩により,視覚情報と幾何学情報を併用して登録性能の向上が試みられている。
しかし,これらの研究は,各特徴の弱さの負の効果を効果的に解決できず,有効情報を十分に活用できない,深い特徴融合による特徴抽出に焦点を当てた。
本稿では,より緩く,より効果的に組み合わせられる機能の組み合わせフレームワークを提案する。
変換一貫性に基づいた明示的なフィルタは,各機能の弱点を克服可能な組み合わせフレームワーク用に設計されている。
また,2種類の特徴からより有効な情報を抽出するために,誤差分布によって決定される適応しきい値を提案する。
特徴的設計のため,提案フレームワークはより正確な対応を推定でき,手書き・学習ベースの特徴記述子にも適用可能である。
ScanNet と 3DMatch の実験により,本手法が最先端の性能を実現することを示す。
関連論文リスト
- SIRST-5K: Exploring Massive Negatives Synthesis with Self-supervised
Learning for Robust Infrared Small Target Detection [53.19618419772467]
単一フレーム赤外線小ターゲット検出(SIRST)は、乱雑な背景から小さなターゲットを認識することを目的としている。
Transformerの開発に伴い、SIRSTモデルのスケールは常に増大している。
赤外線小ターゲットデータの多彩な多様性により,本アルゴリズムはモデル性能と収束速度を大幅に改善する。
論文 参考訳(メタデータ) (2024-03-08T16:14:54Z) - Enhancing Deformable Local Features by Jointly Learning to Detect and
Describe Keypoints [8.390939268280235]
局所特徴抽出は、画像マッチングや検索といった重要なタスクに対処するためのコンピュータビジョンにおける標準的なアプローチである。
鍵点を共同で検出・記述する新しい変形認識ネットワークであるDALFを提案する。
提案手法は、変形可能なオブジェクト検索と、非剛性な3次元表面登録という、2つの実世界のアプリケーションの性能を向上させる。
論文 参考訳(メタデータ) (2023-04-02T18:01:51Z) - Improving RGB-D Point Cloud Registration by Learning Multi-scale Local
Linear Transformation [38.64501645574878]
ポイントクラウド登録は、2つのポイントクラウドスキャン間の幾何学的変換を推定することを目的としている。
近年,RGB-Dデータをより正確な対応に利用しようと試みている。
マルチスケールな局所線形変換を用いたGAVE(Geometry-Aware Visual Feature Extractor)を提案する。
論文 参考訳(メタデータ) (2022-08-31T14:36:09Z) - Learning Dense Features for Point Cloud Registration Using Graph
Attention Network [0.0]
本稿では,ポイントクラウドマッチングと登録のためのグラフアテンションネットワークを用いて,高密度特徴を効率的かつ経済的に抽出するフレームワークを提案する。
DFGATの検出器は、大規模な生データセットにおいて、信頼性の高いキーポイントを見つける責任がある。
グラフアテンションネットワークは、ポイントクラウド間の関係を強化するアテンションメカニズムを使用している。
論文 参考訳(メタデータ) (2022-06-14T10:28:57Z) - Enabling Efficient Deep Convolutional Neural Network-based Sensor Fusion
for Autonomous Driving [10.326217500172689]
DCNN間の融合は、良好な認識精度を達成するための有望な戦略として証明されている。
本稿では,融合した特徴マップ間の特徴差の度合いを計測する特徴不均一度尺度を提案する。
また、計算オーバーヘッドを少なくして精度を向上できる層共有手法をディープ層に提案する。
論文 参考訳(メタデータ) (2022-02-22T23:35:30Z) - Compactness Score: A Fast Filter Method for Unsupervised Feature
Selection [66.84571085643928]
本稿では,CSUFS (Compactness Score) と呼ばれる高速な教師なし特徴選択手法を提案する。
提案アルゴリズムは既存のアルゴリズムよりも正確で効率的である。
論文 参考訳(メタデータ) (2022-01-31T13:01:37Z) - ACFNet: Adaptively-Cooperative Fusion Network for RGB-D Salient Object
Detection [0.0]
本稿では適応的協調型核融合ネットワーク(ACFNet)を提案する。
異なるオブジェクトに対して、異なるタイプの畳み込みによって生成された特徴は、セグメンテーション最適化のためのゲート機構によって強化または抑制される。
RGB-D SODデータセット上で行った十分な実験は、提案するネットワークが18の最先端アルゴリズムに対して好適に動作することを示す。
論文 参考訳(メタデータ) (2021-09-10T02:34:27Z) - GhostSR: Learning Ghost Features for Efficient Image Super-Resolution [49.393251361038025]
畳み込みニューラルネットワーク(CNN)に基づく単一の画像スーパーリゾリューション(SISR)システムは、膨大な計算コストを必要としながら派手なパフォーマンスを実現します。
SISRモデルの冗長な特徴(すなわちゴースト特徴)を生成するためにシフト演算を用いることを提案する。
提案モジュールに埋め込まれた非コンパクトかつ軽量なSISRモデルの両方が,ベースラインと同等の性能を発揮することを示す。
論文 参考訳(メタデータ) (2021-01-21T10:09:47Z) - Progressively Guided Alternate Refinement Network for RGB-D Salient
Object Detection [63.18846475183332]
我々は,RGB-Dの高次物体検出のための効率的かつコンパクトなディープネットワークを開発することを目指している。
そこで本研究では,改良のための改良ネットワークを提案する。
我々のモデルは、既存の最先端のアプローチよりも大きなマージンで優れています。
論文 参考訳(メタデータ) (2020-08-17T02:55:06Z) - Bi-directional Cross-Modality Feature Propagation with
Separation-and-Aggregation Gate for RGB-D Semantic Segmentation [59.94819184452694]
深度情報はRGBD画像のセマンティックセグメンテーションにおいて有用であることが証明されている。
既存のほとんどの研究は、深度測定がRGBピクセルと正確で整合していると仮定し、問題をモーダルな特徴融合としてモデル化している。
本稿では,RGB特徴量応答を効果的に再検討するだけでなく,複数の段階を通して正確な深度情報を抽出し,代わりに2つの補正表現を集約する,統一的で効率的なクロスモダリティガイドを提案する。
論文 参考訳(メタデータ) (2020-07-17T18:35:24Z) - Hierarchical Dynamic Filtering Network for RGB-D Salient Object
Detection [91.43066633305662]
RGB-D Salient Object Detection (SOD) の主な目的は、相互融合情報をよりよく統合し活用する方法である。
本稿では,これらの問題を新たな視点から考察する。
我々は、より柔軟で効率的なマルチスケールのクロスモーダルな特徴処理を実装している。
論文 参考訳(メタデータ) (2020-07-13T07:59:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。