論文の概要: DisCo-FLoc: Using Dual-Level Visual-Geometric Contrasts to Disambiguate Depth-Aware Visual Floorplan Localization
- arxiv url: http://arxiv.org/abs/2601.01822v1
- Date: Mon, 05 Jan 2026 06:31:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-06 16:25:22.78429
- Title: DisCo-FLoc: Using Dual-Level Visual-Geometric Contrasts to Disambiguate Depth-Aware Visual Floorplan Localization
- Title(参考訳): DisCo-FLOC:Dual-Level Visual-Geometric Contrastsを用いた奥行き認識型ビジュアルフロアプランの定位の曖昧化
- Authors: Shiyong Meng, Tao Zou, Bolei Chen, Chaoxu Mu, Jianxin Wang,
- Abstract要約: 既存の手法は、幾何学的先行と巧妙に一致するか、あるいはスパース意味論を用いてFLOCの不確実性を減少させる。
深度認識の視覚的特徴を曖昧にするために2段階のビジュアル・ジオメトリ・コントラストを利用するDisCo-FLOCを提案する。
提案手法は最先端のセマンティック・ベースの手法より優れており,ロバスト性と精度の両面で有意な改善が達成されている。
- 参考スコア(独自算出の注目度): 18.915212890163627
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Since floorplan data is readily available, long-term persistent, and robust to changes in visual appearance, visual Floorplan Localization (FLoc) has garnered significant attention. Existing methods either ingeniously match geometric priors or utilize sparse semantics to reduce FLoc uncertainty. However, they still suffer from ambiguous FLoc caused by repetitive structures within minimalist floorplans. Moreover, expensive but limited semantic annotations restrict their applicability. To address these issues, we propose DisCo-FLoc, which utilizes dual-level visual-geometric Contrasts to Disambiguate depth-aware visual Floc, without requiring additional semantic labels. Our solution begins with a ray regression predictor tailored for ray-casting-based FLoc, predicting a series of FLoc candidates using depth estimation expertise. In addition, a novel contrastive learning method with position-level and orientation-level constraints is proposed to strictly match depth-aware visual features with the corresponding geometric structures in the floorplan. Such matches can effectively eliminate FLoc ambiguity and select the optimal imaging pose from FLoc candidates. Exhaustive comparative studies on two standard visual Floc benchmarks demonstrate that our method outperforms the state-of-the-art semantic-based method, achieving significant improvements in both robustness and accuracy.
- Abstract(参考訳): フロアプランデータの入手が容易で、長期持続的で、視覚的外観の変化に頑健であるため、視覚的フロアプラン局所化(FLOC)が注目されている。
既存の手法は、幾何学的先行と巧妙に一致するか、あるいはスパース意味論を用いてFLOCの不確実性を減少させる。
しかし、最小限のフロアプラン内で反復的な構造が原因で、あいまいなFLOCに悩まされている。
さらに、高価だが限定的なセマンティックアノテーションは適用性を制限する。
これらの問題に対処するために,2段階の視覚幾何コントラストを用いて,追加のセマンティックラベルを必要とせず,深度を意識した視覚Flocを識別するDisCo-FLocを提案する。
我々の解は、レイキャストベースのFLOCに適したレイレグレッション予測器から始まり、深度推定の専門知識を用いて一連のFLOC候補を予測する。
さらに,フロアプランの幾何学的構造と深度認識の視覚的特徴を厳密に一致させるために,位置レベルの制約と向きレベルの制約を持つ新しいコントラスト学習法を提案する。
このような一致はFLOCの曖昧さを効果的に排除し、FLOC候補から最適な画像ポーズを選択することができる。
2つの標準的な視覚的Flocベンチマークにおける探索的比較研究は、我々の手法が最先端のセマンティックベースの手法よりも優れており、ロバスト性と精度の両方において顕著な改善が達成されていることを証明している。
関連論文リスト
- Saccadic Vision for Fine-Grained Visual Classification [10.681604440788854]
きめ細かい視覚分類(FGVC)は、微妙で局所的な特徴によって視覚的に類似したカテゴリーを区別する必要がある。
既存のパートベースの手法は、ピクセルからサンプル空間へのマッピングを学習する複雑なローカライゼーションネットワークに依存している。
本稿では,まず周辺特徴を抽出し,サンプルマップを生成する2段階プロセスを提案する。
我々は、周辺と焦点の表現を融合する前に、各固定パッチの影響を定量的に評価するために、文脈選択的注意を用いる。
論文 参考訳(メタデータ) (2025-09-19T07:03:37Z) - Perspective from a Broader Context: Can Room Style Knowledge Help Visual Floorplan Localization? [6.84207750713782]
本稿では,自己照合された未ラベルの部屋画像上で,部屋識別器を事前訓練するためのクラスタリング制約付き教師なし学習手法を提案する。
このような判別器は、観察された画像の隠されたルームタイプを経験的に抽出し、他のルームタイプと区別することができる。
識別器が要約したシーンコンテキスト情報をFLOCアルゴリズムに注入することにより、室内スタイルの知識を効果的に活用し、特定視覚FLOCを誘導する。
論文 参考訳(メタデータ) (2025-08-02T06:17:54Z) - Relative Pose Estimation through Affine Corrections of Monocular Depth Priors [69.59216331861437]
本研究では,独立なアフィン(スケールとシフト)のあいまいさを明示的に考慮した相対ポーズ推定のための3つの解法を開発した。
提案する解法と古典的点ベース解法とエピポーラ制約を組み合わせたハイブリッド推定パイプラインを提案する。
論文 参考訳(メタデータ) (2025-01-09T18:58:30Z) - Towards Cross-View-Consistent Self-Supervised Surround Depth Estimation [9.569646683579899]
連続画像からの自己監督下周深度推定は経済的な代替手段を提供する。
従来のSSSDE法では、画像間で情報を融合する異なるメカニズムが提案されているが、それらのいくつかは、クロスビュー制約を明示的に考慮している。
本稿では,SSSDEのクロスビュー一貫性を高めるために,効率的で一貫したポーズ推定設計と2つの損失関数を提案する。
論文 参考訳(メタデータ) (2024-07-04T16:29:05Z) - DistractFlow: Improving Optical Flow Estimation via Realistic
Distractions and Pseudo-Labeling [49.46842536813477]
本稿では,光フロー推定モデルのトレーニングのための新しいデータ拡張手法であるDistractFlowを提案する。
2つのフレームのうちの1つを、類似したドメインを描写したイントラクタイメージと組み合わせることで、自然の物体やシーンと相反する視覚的摂動を誘発することができる。
私たちのアプローチでは、追加のアノテーションを必要とせずに、利用可能なトレーニングペアの数を大幅に増やすことができます。
論文 参考訳(メタデータ) (2023-03-24T15:42:54Z) - Boosting Few-shot Fine-grained Recognition with Background Suppression
and Foreground Alignment [53.401889855278704]
FS-FGR (Few-shot Fine-fine Recognition) は、限られたサンプルの助けを借りて、新しいきめ細かなカテゴリを認識することを目的としている。
本研究では,背景アクティベーション抑制 (BAS) モジュール,フォアグラウンドオブジェクトアライメント (FOA) モジュール,および局所的局所的(L2L) 類似度測定器からなる2段階の背景アライメントとフォアグラウンドアライメントフレームワークを提案する。
複数のベンチマークで行った実験により,提案手法は既存の最先端技術よりも大きなマージンで優れていることが示された。
論文 参考訳(メタデータ) (2022-10-04T07:54:40Z) - An Adaptive Framework for Learning Unsupervised Depth Completion [59.17364202590475]
カラー画像から高密度深度マップとそれに伴うスパース深度測定を推定する手法を提案する。
正規化とコビジュアライゼーションは、モデルの適合度とデータによって関連付けられており、単一のフレームワークに統合可能であることを示す。
論文 参考訳(メタデータ) (2021-06-06T02:27:55Z) - Deep Semantic Matching with Foreground Detection and Cycle-Consistency [103.22976097225457]
深層ネットワークに基づく弱い教師付きセマンティックマッチングに対処する。
本研究では,背景乱れの影響を抑えるために,前景領域を明示的に推定する。
複数の画像にまたがって予測変換を強制し、幾何的に可視かつ一貫したサイクル一貫性の損失を発生させる。
論文 参考訳(メタデータ) (2020-03-31T22:38:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。