論文の概要: Leveraging Cycle-Consistent Anchor Points for Self-Supervised RGB-D Registration
- arxiv url: http://arxiv.org/abs/2510.14354v1
- Date: Thu, 16 Oct 2025 06:47:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-17 21:15:14.75108
- Title: Leveraging Cycle-Consistent Anchor Points for Self-Supervised RGB-D Registration
- Title(参考訳): 自己監督型RGB-Dレジストレーションのためのサイクル一貫性アンカーポイントの活用
- Authors: Siddharth Tourani, Jayaram Reddy, Sarvesh Thakur, K Madhava Krishna, Muhammad Haris Khan, N Dinesh Reddy,
- Abstract要約: マッチング中に空間的コヒーレンス制約を強制するために,周期整合キーポイントを有意な点として用いる。
また,GRUリカレントユニットと変換同期を組み合わせた新しいポーズブロックを導入する。
提案手法は,ScanNetと3DMatchの自己教師あり登録手法を超越し,古い教師あり登録手法よりも優れていた。
- 参考スコア(独自算出の注目度): 30.03566453046537
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the rise in consumer depth cameras, a wealth of unlabeled RGB-D data has become available. This prompts the question of how to utilize this data for geometric reasoning of scenes. While many RGB-D registration meth- ods rely on geometric and feature-based similarity, we take a different approach. We use cycle-consistent keypoints as salient points to enforce spatial coherence constraints during matching, improving correspondence accuracy. Additionally, we introduce a novel pose block that combines a GRU recurrent unit with transformation synchronization, blending historical and multi-view data. Our approach surpasses previous self- supervised registration methods on ScanNet and 3DMatch, even outperforming some older supervised methods. We also integrate our components into existing methods, showing their effectiveness.
- Abstract(参考訳): 消費者の深度カメラの普及に伴い、ラベルなしのRGB-Dデータが豊富に利用できるようになった。
これにより、このデータをシーンの幾何学的推論にどのように利用するかという疑問が浮き彫りになる。
多くのRGB-D登録メタオードは幾何学的および特徴に基づく類似性に依存していますが、別のアプローチを取っています。
本研究では,一致時の空間コヒーレンス制約を強制し,対応精度を向上させるために,周期整合キーポイントを有意な点として用いた。
さらに,GRUリカレントユニットと変換同期を組み合わせた新しいポーズブロックを導入する。
提案手法は,ScanNetと3DMatchの自己教師あり登録手法を超越し,古い教師あり登録手法よりも優れていた。
また、コンポーネントを既存のメソッドに統合し、その有効性を示します。
関連論文リスト
- Registration of 3D Point Sets Using Exponential-based Similarity Matrix [1.0485739694839669]
ポイントクラウド登録はコンピュータビジョンとロボティクスの基本的な問題である。
本稿では,古典的イテレーティブ・クローゼスト・ポイント(ICP)アルゴリズムのロバストな修正を提案する。
提案手法は,ガウスにインスパイアされた指数重み付け方式を統合した指数類似行列 (ESM-ICP) である。
論文 参考訳(メタデータ) (2025-05-07T16:17:54Z) - RGBD-Glue: General Feature Combination for Robust RGB-D Point Cloud Registration [0.0]
より緩く、より効果的に組み合わせられる新しい機能の組み合わせフレームワークを提案する。
変換一貫性に基づいた明示的なフィルタは,各機能の弱点を克服可能な組み合わせフレームワーク用に設計されている。
ScanNet と 3DMatch の実験により,本手法が最先端の性能を実現することを示す。
論文 参考訳(メタデータ) (2024-05-13T09:56:28Z) - MatchU: Matching Unseen Objects for 6D Pose Estimation from RGB-D Images [57.71600854525037]
RGB-D画像からの6次元ポーズ推定のためのFuse-Describe-Match戦略を提案する。
MatchUは、2Dテクスチャと6Dポーズ予測のための3D幾何学的手がかりを融合する汎用的なアプローチである。
論文 参考訳(メタデータ) (2024-03-03T14:01:03Z) - RGB-based Category-level Object Pose Estimation via Decoupled Metric
Scale Recovery [72.13154206106259]
本研究では、6次元のポーズとサイズ推定を分離し、不完全なスケールが剛性変換に与える影響を緩和するパイプラインを提案する。
具体的には,事前学習した単分子推定器を用いて局所的な幾何学的情報を抽出する。
別個のブランチは、カテゴリレベルの統計に基づいてオブジェクトのメートル法スケールを直接復元するように設計されている。
論文 参考訳(メタデータ) (2023-09-19T02:20:26Z) - PointMBF: A Multi-scale Bidirectional Fusion Network for Unsupervised
RGB-D Point Cloud Registration [6.030097207369754]
本稿では,RGB画像と深度画像から生成された点雲との間に,マルチスケールの双方向融合を実現するネットワークを提案する。
提案手法は,新しい最先端性能を実現する。
論文 参考訳(メタデータ) (2023-08-09T08:13:46Z) - Self-Supervised Correspondence Estimation via Multiview Registration [88.99287381176094]
ビデオは、視覚学習に必要な同期時間一貫性を提供します。
近年のアプローチでは、この信号を用いて、近接フレーム対からの対応推定を学習している。
短いRGB-Dビデオシーケンスにおけるマルチビュー一貫性から学習する対応推定のための自己教師付きアプローチを提案する。
論文 参考訳(メタデータ) (2022-12-06T18:59:02Z) - Improving RGB-D Point Cloud Registration by Learning Multi-scale Local
Linear Transformation [38.64501645574878]
ポイントクラウド登録は、2つのポイントクラウドスキャン間の幾何学的変換を推定することを目的としている。
近年,RGB-Dデータをより正確な対応に利用しようと試みている。
マルチスケールな局所線形変換を用いたGAVE(Geometry-Aware Visual Feature Extractor)を提案する。
論文 参考訳(メタデータ) (2022-08-31T14:36:09Z) - Deep Hough Voting for Robust Global Registration [52.40611370293272]
6次元変換パラメータ空間におけるハフ投票を利用した実世界の3Dスキャンのペア登録のための効率的なフレームワークを提案する。
提案手法は, 3DMatch と 3DLoMatch のベンチマークにおいて, KITTI odometry データセットで同等の性能を達成しながら, 最先端の手法よりも優れている。
論文 参考訳(メタデータ) (2021-09-09T14:38:06Z) - Bi-directional Cross-Modality Feature Propagation with
Separation-and-Aggregation Gate for RGB-D Semantic Segmentation [59.94819184452694]
深度情報はRGBD画像のセマンティックセグメンテーションにおいて有用であることが証明されている。
既存のほとんどの研究は、深度測定がRGBピクセルと正確で整合していると仮定し、問題をモーダルな特徴融合としてモデル化している。
本稿では,RGB特徴量応答を効果的に再検討するだけでなく,複数の段階を通して正確な深度情報を抽出し,代わりに2つの補正表現を集約する,統一的で効率的なクロスモダリティガイドを提案する。
論文 参考訳(メタデータ) (2020-07-17T18:35:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。