論文の概要: CSCPR: Cross-Source-Context Indoor RGB-D Place Recognition
- arxiv url: http://arxiv.org/abs/2407.17457v2
- Date: Thu, 26 Dec 2024 07:48:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-30 17:21:34.984353
- Title: CSCPR: Cross-Source-Context Indoor RGB-D Place Recognition
- Title(参考訳): CSCPR: クロスソースコンテキスト屋内RGB-D位置認識
- Authors: Jing Liang, Zhuo Deng, Zheming Zhou, Min Sun, Omid Ghasemalizadeh, Cheng-Hao Kuo, Arnie Sen, Dinesh Manocha,
- Abstract要約: 本稿では,RGB-D屋内位置認識のための新しいアルゴリズムであるCSCPRを提案する。
位置認識のためのRGBドメインに主にフォーカスする従来のアプローチとは異なり、CSCPRはRGB-Dデータを扱うように設計されている。
クロスソースおよびクロススケールなRGB-Dポイントクラウドを扱うためにCoCを適用し、再ランク付けのための2つの新しいモジュールを導入します。
- 参考スコア(独自算出の注目度): 47.12179061883084
- License:
- Abstract: We extend our previous work, PoCo, and present a new algorithm, Cross-Source-Context Place Recognition (CSCPR), for RGB-D indoor place recognition that integrates global retrieval and reranking into an end-to-end model and keeps the consistency of using Context-of-Clusters (CoCs) for feature processing. Unlike prior approaches that primarily focus on the RGB domain for place recognition reranking, CSCPR is designed to handle the RGB-D data. We apply the CoCs to handle cross-sourced and cross-scaled RGB-D point clouds and introduce two novel modules for reranking: the Self-Context Cluster (SCC) and the Cross Source Context Cluster (CSCC), which enhance feature representation and match query-database pairs based on local features, respectively. We also release two new datasets, ScanNetIPR and ARKitIPR. Our experiments demonstrate that CSCPR significantly outperforms state-of-the-art models on these datasets by at least 29.27% in Recall@1 on the ScanNet-PR dataset and 43.24% in the new datasets. Code and datasets will be released.
- Abstract(参考訳): 提案するアルゴリズムは,グローバル検索を統合したRGB-D屋内位置認識をエンド・ツー・エンドモデルに統合し,特徴処理にContext-of-Clusters(CoCs)を使用することの一貫性を維持する。
位置認識のためのRGBドメインに主にフォーカスする従来のアプローチとは異なり、CSCPRはRGB-Dデータを扱うように設計されている。
クロスソースおよびクロススケールなRGB-Dポイントクラウドの処理にCoCを適用するとともに,ローカル機能に基づいて,特徴表現の強化とクエリ-データベースペアのマッチングを行う,SCC(Self-Context Cluster)とCSCC(Cross Source Context Cluster)の2つの新しいモジュールを導入する。
また、ScanNetIPRとARKitIPRという2つの新しいデータセットもリリースしています。
我々の実験は、CSCPRがこれらのデータセットの最先端モデルを、ScanNet-PRデータセット上のRecall@1で少なくとも29.27%、新しいデータセットで43.24%で大幅に上回っていることを示した。
コードとデータセットがリリースされる。
関連論文リスト
- RGB-Sonar Tracking Benchmark and Spatial Cross-Attention Transformer Tracker [4.235252053339947]
本稿では,新しいRGB-Sonar(RGB-S)トラッキングタスクを提案する。
RGBとソナーモダリティの相互作用により、水中の標的の効率的な追跡を実現する方法について検討する。
論文 参考訳(メタデータ) (2024-06-11T12:01:11Z) - PoCo: Point Context Cluster for RGBD Indoor Place Recognition [47.12179061883084]
本稿では,屋内RGB-D位置認識タスクのための新しいエンドツーエンドアルゴリズム(PoCo)を提案する。
本稿では,最近のコンテキスト・オブ・クラスタ(CoC)を一般化したネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-04-03T17:38:15Z) - Benchmarking Implicit Neural Representation and Geometric Rendering in Real-Time RGB-D SLAM [6.242958695705305]
インプシット・ニューラル表現(INR)と幾何学的レンダリングの組み合わせは、リアルタイム高密度RGB-D SLAMに採用されている。
我々は、広く使われているINRとレンダリング関数の幅広いスペクトルの性能を評価するための、最初のオープンソースのベンチマークフレームワークを構築した。
RGB-D SLAMシステムに対応するために,高忠実度高密度グリッドマッピングのための明示的なハイブリッド符号化を提案する。
論文 参考訳(メタデータ) (2024-03-28T14:59:56Z) - CalibNet: Dual-branch Cross-modal Calibration for RGB-D Salient Instance Segmentation [88.50067783122559]
CalibNetは3つの単純なモジュール、動的インタラクティブカーネル(DIK)と重量共有融合(WSF)で構成されている。
実験の結果、CalibNetは、COME15K-Nテストセット上で320*480の入力サイズを持つ58.0% APという有望な結果をもたらすことが示された。
論文 参考訳(メタデータ) (2023-07-16T16:49:59Z) - Revisiting Color-Event based Tracking: A Unified Network, Dataset, and
Metric [53.88188265943762]
上記の機能を同時に実現したCEUTrack(Color-Event Unified Tracking)のためのシングルステージバックボーンネットワークを提案する。
提案するCEUTrackはシンプルで,効率的で,75FPS以上を達成し,新たなSOTA性能を実現している。
論文 参考訳(メタデータ) (2022-11-20T16:01:31Z) - CRCNet: Few-shot Segmentation with Cross-Reference and Region-Global
Conditional Networks [59.85183776573642]
少ないショットセグメンテーションは、少数のトレーニングイメージを持つ新しいクラスに一般化できるセグメンテーションモデルを学ぶことを目的としている。
複数ショットセグメンテーションのためのクロスリファレンス・ローカル・グローバル・ネットワーク(CRCNet)を提案する。
我々のネットワークは、相互参照機構により、2つの画像に共起する物体をよりよく見つけることができる。
論文 参考訳(メタデータ) (2022-08-23T06:46:18Z) - Self-Supervised Representation Learning for RGB-D Salient Object
Detection [93.17479956795862]
我々は、自己教師付き表現学習を用いて、クロスモーダルオートエンコーダと深さ-輪郭推定という2つのプレテキストタスクを設計する。
我々のプレテキストタスクは、ネットワークがリッチなセマンティックコンテキストをキャプチャする事前トレーニングを実行するのに、少数のRGB-Dデータセットしか必要としない。
RGB-D SODにおけるクロスモーダル核融合の固有の問題として,マルチパス核融合モジュールを提案する。
論文 参考訳(メタデータ) (2021-01-29T09:16:06Z) - Bi-directional Cross-Modality Feature Propagation with
Separation-and-Aggregation Gate for RGB-D Semantic Segmentation [59.94819184452694]
深度情報はRGBD画像のセマンティックセグメンテーションにおいて有用であることが証明されている。
既存のほとんどの研究は、深度測定がRGBピクセルと正確で整合していると仮定し、問題をモーダルな特徴融合としてモデル化している。
本稿では,RGB特徴量応答を効果的に再検討するだけでなく,複数の段階を通して正確な深度情報を抽出し,代わりに2つの補正表現を集約する,統一的で効率的なクロスモダリティガイドを提案する。
論文 参考訳(メタデータ) (2020-07-17T18:35:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。