論文の概要: Long-Term Invariant Local Features via Implicit Cross-Domain
Correspondences
- arxiv url: http://arxiv.org/abs/2311.03345v1
- Date: Mon, 6 Nov 2023 18:53:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-07 13:09:46.308429
- Title: Long-Term Invariant Local Features via Implicit Cross-Domain
Correspondences
- Title(参考訳): 暗黙のクロスドメイン対応による長期不変局所特徴
- Authors: Zador Pataki, Mohammad Altillawi, Menelaos Kanakis, R\'emi Pautrat,
Fengyi Shen, Ziyuan Liu, Luc Van Gool, and Marc Pollefeys
- Abstract要約: 我々は、様々なドメイン変更の下で、現在の最先端特徴抽出ネットワークの性能を徹底的に分析する。
我々は、新しいデータ中心方式、Implicit Cross-Domain Correspondences (iCDC)を提案する。
iCDCは複数のニューラル・ラジアンス・フィールドで同じ環境を表し、それぞれが個々の視覚領域の下にシーンを適合させる。
- 参考スコア(独自算出の注目度): 79.21515035128832
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern learning-based visual feature extraction networks perform well in
intra-domain localization, however, their performance significantly declines
when image pairs are captured across long-term visual domain variations, such
as different seasonal and daytime variations. In this paper, our first
contribution is a benchmark to investigate the performance impact of long-term
variations on visual localization. We conduct a thorough analysis of the
performance of current state-of-the-art feature extraction networks under
various domain changes and find a significant performance gap between intra-
and cross-domain localization. We investigate different methods to close this
gap by improving the supervision of modern feature extractor networks. We
propose a novel data-centric method, Implicit Cross-Domain Correspondences
(iCDC). iCDC represents the same environment with multiple Neural Radiance
Fields, each fitting the scene under individual visual domains. It utilizes the
underlying 3D representations to generate accurate correspondences across
different long-term visual conditions. Our proposed method enhances
cross-domain localization performance, significantly reducing the performance
gap. When evaluated on popular long-term localization benchmarks, our trained
networks consistently outperform existing methods. This work serves as a
substantial stride toward more robust visual localization pipelines for
long-term deployments, and opens up research avenues in the development of
long-term invariant descriptors.
- Abstract(参考訳): 現代の学習に基づく視覚特徴抽出ネットワークは、ドメイン内ローカライズにおいてよく機能するが、その性能は、季節や日中のバリエーションなど、長期の視覚領域のバリエーション間で画像ペアをキャプチャすると著しく低下する。
本稿では,視覚的ローカライゼーションにおける長期変動の影響を調査するためのベンチマークを行う。
様々なドメイン変更下での現在の最先端特徴抽出ネットワークの性能を徹底的に分析し,領域内および領域間における性能ギャップを明らかにした。
本研究では,最新の特徴抽出ネットワークの監視を改善することにより,このギャップを解消するための異なる手法を検討する。
本稿では,新しいデータ中心方式であるImplicit Cross-Domain Correspondences (iCDC)を提案する。
iCDCは複数のニューラル・ラジアンス・フィールドで同じ環境を表し、それぞれが個々の視覚領域の下にシーンを適合させる。
基礎となる3D表現を利用して、異なる長期的視覚条件の正確な対応を生成する。
提案手法はクロスドメインのローカライゼーション性能を高め,性能ギャップを大幅に低減する。
人気のある長期ローカライゼーションベンチマークで評価すると、トレーニングされたネットワークは既存の手法より一貫して優れています。
この研究は、長期展開のためのより堅牢な視覚的ローカライズパイプラインへの大きな一歩となり、長期不変ディスクリプタの開発における研究の道を開く。
関連論文リスト
- Understanding the Cross-Domain Capabilities of Video-Based Few-Shot Action Recognition Models [3.072340427031969]
Few-shot Action Recognition (FSAR) は、ビデオ中の新しいアクションをわずかに例を使って識別できるモデルを学ぶことを目的としている。
メタトレーニング中に見られるベースデータセットと評価に使用される新しいデータセットは、異なるドメインから得ることができると仮定すると、クロスドメインの少数ショット学習によってデータ収集とアノテーションコストが軽減される。
我々は、新しいクロスドメインタスクに対して、既存の最先端の単一ドメイン、転送ベース、およびクロスドメインFSARメソッドを体系的に評価する。
論文 参考訳(メタデータ) (2024-06-03T07:48:18Z) - Contrastive Domain Adaptation for Time-Series via Temporal Mixup [14.723714504015483]
時系列データのための新しい軽量コントラスト型ドメイン適応フレームワークであるCoTMixを提案する。
具体的には、ソースとターゲットドメインに対する2つの中間的な拡張ビューを生成するための、新しい時間混合戦略を提案する。
我々のアプローチは、最先端のUDAメソッドを著しく上回ります。
論文 参考訳(メタデータ) (2022-12-03T06:53:38Z) - PIT: Position-Invariant Transform for Cross-FoV Domain Adaptation [53.428312630479816]
フィールド・オブ・ビュー(FoV)ギャップは、ソースとターゲットドメイン間の顕著なインスタンスの出現差を誘導する。
本研究では,異なる領域における画像の整合性を改善するために,textbfPosition-Invariant Transform (PIT)を提案する。
論文 参考訳(メタデータ) (2021-08-16T15:16:47Z) - AFAN: Augmented Feature Alignment Network for Cross-Domain Object
Detection [90.18752912204778]
オブジェクト検出のための教師なしドメイン適応は、多くの現実世界のアプリケーションにおいて難しい問題である。
本稿では、中間領域画像生成とドメイン・アドバイザリー・トレーニングを統合した新しい機能アライメント・ネットワーク(AFAN)を提案する。
提案手法は、類似および異種ドメイン適応の双方において、標準ベンチマークにおける最先端の手法よりも大幅に優れている。
論文 参考訳(メタデータ) (2021-06-10T05:01:20Z) - STA-VPR: Spatio-temporal Alignment for Visual Place Recognition [17.212503755962757]
画像間の距離を計測しながら空間領域から局所的な特徴を整列する適応動的時間ウォーピングアルゴリズムを提案する。
時間的アライメントに基づく画像シーケンスマッチングを行うために、局所マッチングDTWアルゴリズムを適用した。
その結果,提案手法はcnnに基づく手法を大幅に改善した。
論文 参考訳(メタデータ) (2021-03-25T03:27:42Z) - Domain Adaptation of Learned Features for Visual Localization [60.6817896667435]
日時,天気,季節などの変化条件下での視覚的局所化の問題に対処する。
近年の深層ニューラルネットワークに基づく学習された局所的特徴は、古典的な手作りの局所的特徴よりも優れた性能を示している。
ドメインギャップを減らすために、いくつかの例しか必要としない、斬新で実践的なアプローチを提案する。
論文 参考訳(メタデータ) (2020-08-21T05:17:32Z) - Cross-Domain Facial Expression Recognition: A Unified Evaluation
Benchmark and Adversarial Graph Learning [85.6386289476598]
我々は,クロスドメイン全体的特徴共適応のための新しい逆グラフ表現適応(AGRA)フレームワークを開発した。
我々は,いくつかの一般的なベンチマークで広範囲かつ公平な評価を行い,提案したAGRAフレームワークが従来の最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-08-03T15:00:31Z) - Cross-domain Object Detection through Coarse-to-Fine Feature Adaptation [62.29076080124199]
本稿では,クロスドメインオブジェクト検出のための特徴適応手法を提案する。
粗粒度では、アテンション機構を採用して前景領域を抽出し、その辺縁分布に応じて整列する。
粒度の細かい段階では、同じカテゴリのグローバルプロトタイプと異なるドメインとの距離を最小化することにより、前景の条件分布アライメントを行う。
論文 参考訳(メタデータ) (2020-03-23T13:40:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。