論文の概要: Object-Guided Day-Night Visual Localization in Urban Scenes
- arxiv url: http://arxiv.org/abs/2202.04445v1
- Date: Wed, 9 Feb 2022 13:21:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-10 19:08:24.359014
- Title: Object-Guided Day-Night Visual Localization in Urban Scenes
- Title(参考訳): 都市景観における被写体誘導昼夜視定位
- Authors: Assia Benbihi, C\'edric Pradalier, Ond\v{r}ej Chum
- Abstract要約: 提案手法はまず意味オブジェクトを検出し,画像間の対応性を確立する。
標準的な都市局所化データセットの実験により,OGuLはSIFTと同様の簡易な局所的特徴を持つ局所化結果を大幅に改善することが示された。
- 参考スコア(独自算出の注目度): 2.4493299476776778
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce Object-Guided Localization (OGuL) based on a novel method of
local-feature matching. Direct matching of local features is sensitive to
significant changes in illumination. In contrast, object detection often
survives severe changes in lighting conditions. The proposed method first
detects semantic objects and establishes correspondences of those objects
between images. Object correspondences provide local coarse alignment of the
images in the form of a planar homography. These homographies are consequently
used to guide the matching of local features. Experiments on standard urban
localization datasets (Aachen, Extended-CMU-Season, RobotCar-Season) show that
OGuL significantly improves localization results with as simple local features
as SIFT, and its performance competes with the state-of-the-art CNN-based
methods trained for day-to-night localization.
- Abstract(参考訳): 局所マッチングの新しい手法に基づくOGuL(Object-Guided Localization)を提案する。
局所的な特徴の直接マッチングは照明の著しい変化に敏感である。
対照的に、物体検出はしばしば照明条件の厳しい変化を生き延びる。
提案手法は,まず意味オブジェクトを検出し,画像間の対応を確立する。
対象対応は平面ホモグラフィの形で画像の局所的な粗いアラインメントを提供する。
これらの相同性は、局所的な特徴のマッチングのガイドとして用いられる。
標準的な都市ローカライゼーションデータセット(Aachen, Extended-CMU-Season, RobotCar-Season)の実験では、OGuLはSIFTと同じくらい単純な局所的特徴でローカライゼーション結果を著しく改善し、その性能は日々のローカライゼーションのために訓練された最先端のCNNベースの手法と競合する。
関連論文リスト
- Learning Where to Look: Self-supervised Viewpoint Selection for Active Localization using Geometrical Information [68.10033984296247]
本稿では, 位置決めの精度を高めるために, 視点選択の重要性を強調し, アクティブな位置決め領域について検討する。
私たちのコントリビューションは、リアルタイム操作用に設計されたシンプルなアーキテクチャ、自己教師付きデータトレーニング方法、および実世界のロボティクスアプリケーションに適した計画フレームワークにマップを一貫して統合する能力による、データ駆動型アプローチの使用に関するものです。
論文 参考訳(メタデータ) (2024-07-22T12:32:09Z) - Monocular Localization with Semantics Map for Autonomous Vehicles [8.242967098897408]
低レベルのテクスチャ機能の代わりに安定したセマンティック機能を利用する新しい視覚的セマンティックローカライゼーションアルゴリズムを提案する。
まず、セマンティックマップは、カメラやLiDARセンサーを使用して、グラウンドマーカー、レーンライン、ポールなどのセマンティックオブジェクトを検出してオフラインで構築される。
オンラインの視覚的ローカライゼーションは意味的特徴とマップオブジェクトのデータアソシエーションによって行われる。
論文 参考訳(メタデータ) (2024-06-06T08:12:38Z) - LAW-Diffusion: Complex Scene Generation by Diffusion with Layouts [107.11267074981905]
LAW拡散(LAW-Diffusion)と呼ばれる意味制御可能なレイアウト・AWare拡散モデルを提案する。
LAW拡散は、特にコヒーレントな対象関係を持つ最先端の生成性能をもたらすことを示す。
論文 参考訳(メタデータ) (2023-08-13T08:06:18Z) - Towards Local Visual Modeling for Image Captioning [87.02744388237045]
そこで我々はLSTNet(Locality-Sensitive Transformer Network)とLSA(Locality-Sensitive Attention)とLSF(Locality-Sensitive Fusion)の2つの新しい設計を提案する。
LSAはトランスフォーマー内の層間相互作用のために、各格子とその近傍の関係をモデル化して展開される。
LSFは層間情報融合に使われ、層間セマンティック補完のために異なるエンコーダ層の情報を集約する。
論文 参考訳(メタデータ) (2023-02-13T04:42:00Z) - Local Feature Extraction from Salient Regions by Feature Map
Transformation [0.7734726150561086]
光や視点によらず,局所的な特徴を強く抽出し,記述する枠組みを提案する。
このフレームワークは照明の変動を抑制し、構造情報を光からのノイズを無視するように促す。
提案モデルでは,正常な領域から特徴点を抽出し,不整合を減少させる。
論文 参考訳(メタデータ) (2023-01-25T05:31:20Z) - ViTOL: Vision Transformer for Weakly Supervised Object Localization [0.735996217853436]
弱教師付きオブジェクトローカライゼーション(WSOL)は、画像レベルのカテゴリラベルのみを用いて、画像内のオブジェクト位置を予測することを目的としている。
画像分類モデルがローカライズ対象の場合に遭遇する一般的な課題は、(a) ローカライズマップを非常に小さな領域に限定する画像において最も識別性の高い特徴を見る傾向にあり、(b) ローカライズマップはクラス非依存であり、モデルは同一画像内の複数のクラスのオブジェクトをハイライトする。
論文 参考訳(メタデータ) (2022-04-14T06:16:34Z) - Local Context Attention for Salient Object Segmentation [5.542044768017415]
本研究では,一様表現型アーキテクチャで局所強化特徴写像を生成するための新しいローカルコンテキスト注意ネットワーク(LCANet)を提案する。
提案するネットワークでは,粗い予測と大域的コンテキストの間の相関特徴写像を計算し,アテンショナル・コリレーション・フィルタ (ACF) モジュールを導入している。
いくつかの有能なオブジェクトセグメンテーションデータセットに対して総合的な実験を行い、提案したLCANetの最先端手法に対する優れた性能を実証した。
論文 参考訳(メタデータ) (2020-09-24T09:20:06Z) - Domain-invariant Similarity Activation Map Contrastive Learning for
Retrieval-based Long-term Visual Localization [30.203072945001136]
本研究では,多領域画像変換による領域不変特徴抽出のために,確率論的に一般アーキテクチャを定式化する。
そして、より精密な局所化のために、新しい勾配重み付き類似性活性化写像損失(Grad-SAM)を組み込んだ。
CMUSeasonsデータセットにおける提案手法の有効性を検証するために大規模な実験が行われた。
我々の性能は、最先端のイメージベースのローカライゼーションベースラインを中あるいは高精度で上回るか、あるいは上回る。
論文 参考訳(メタデータ) (2020-09-16T14:43:22Z) - Each Part Matters: Local Patterns Facilitate Cross-view Geo-localization [54.00111565818903]
クロスビューなジオローカライゼーションは、異なるプラットフォームから同じ地理的ターゲットの画像を見つけることである。
既存の手法は通常、画像センター内の地理的ターゲットの微細な特徴をマイニングすることに集中している。
我々は、文脈情報を活用するために、ローカルパターンネットワーク(LPN)と呼ばれるシンプルで効果的なディープニューラルネットワークを導入する。
論文 参考訳(メタデータ) (2020-08-26T16:06:11Z) - Domain Adaptation of Learned Features for Visual Localization [60.6817896667435]
日時,天気,季節などの変化条件下での視覚的局所化の問題に対処する。
近年の深層ニューラルネットワークに基づく学習された局所的特徴は、古典的な手作りの局所的特徴よりも優れた性能を示している。
ドメインギャップを減らすために、いくつかの例しか必要としない、斬新で実践的なアプローチを提案する。
論文 参考訳(メタデータ) (2020-08-21T05:17:32Z) - Multi-View Optimization of Local Feature Geometry [70.18863787469805]
本研究では,複数視点からの局所像の特徴の幾何を,未知のシーンやカメラの幾何を伴わずに精査する問題に対処する。
提案手法は,従来の特徴抽出とマッチングのパラダイムを自然に補完する。
本手法は,手作りと学習の両方の局所的特徴に対して,三角測量とカメラのローカライゼーション性能を常に向上することを示す。
論文 参考訳(メタデータ) (2020-03-18T17:22:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。