論文の概要: Visually Similar Pair Alignment for Robust Cross-Domain Object Detection
- arxiv url: http://arxiv.org/abs/2504.06607v1
- Date: Wed, 09 Apr 2025 06:11:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-10 13:06:28.333683
- Title: Visually Similar Pair Alignment for Robust Cross-Domain Object Detection
- Title(参考訳): ロバストなクロスドメインオブジェクト検出のための視覚的に類似したペアアライメント
- Authors: Onkar Krishna, Hiroki Ohashi,
- Abstract要約: トレーニングデータ(ソース)と実世界の環境(ターゲット)の間のドメインギャップは、しばしばオブジェクト検出モデルの性能を低下させます。
既存のほとんどのメソッドは、ソースドメインとターゲットドメインをまたいで機能をアライメントすることで、このギャップを埋めようとしているが、アライメントペアにおける色や方向などの視覚的な違いを説明できないことが多い。
本研究では、視覚的に類似したペアの整列がドメイン適応を大幅に改善するカスタム構築データセットを用いて、初めて実演する。
- 参考スコア(独自算出の注目度): 4.990739968576321
- License:
- Abstract: Domain gaps between training data (source) and real-world environments (target) often degrade the performance of object detection models. Most existing methods aim to bridge this gap by aligning features across source and target domains but often fail to account for visual differences, such as color or orientation, in alignment pairs. This limitation leads to less effective domain adaptation, as the model struggles to manage both domain-specific shifts (e.g., fog) and visual variations simultaneously. In this work, we demonstrate for the first time, using a custom-built dataset, that aligning visually similar pairs significantly improves domain adaptation. Based on this insight, we propose a novel memory-based system to enhance domain alignment. This system stores precomputed features of foreground objects and background areas from the source domain, which are periodically updated during training. By retrieving visually similar source features for alignment with target foreground and background features, the model effectively addresses domain-specific differences while reducing the impact of visual variations. Extensive experiments across diverse domain shift scenarios validate our method's effectiveness, achieving 53.1 mAP on Foggy Cityscapes and 62.3 on Sim10k, surpassing prior state-of-the-art methods by 1.2 and 4.1 mAP, respectively.
- Abstract(参考訳): トレーニングデータ(ソース)と実世界の環境(ターゲット)の間のドメインギャップは、しばしばオブジェクト検出モデルの性能を低下させます。
既存のほとんどのメソッドは、ソースドメインとターゲットドメインをまたいで機能をアライメントすることで、このギャップを埋めようとしているが、アライメントペアにおける色や方向などの視覚的な違いを説明できないことが多い。
この制限により、モデルがドメイン固有のシフト(例えば、霧)と視覚的バリエーションの両方を同時に管理するのに苦労するため、ドメイン適応の効率が低下する。
本研究では、視覚的に類似したペアの整列がドメイン適応を大幅に改善するカスタム構築データセットを用いて、初めて実演する。
この知見に基づいて,ドメインアライメントを向上させるメモリベースシステムを提案する。
本システムは、トレーニング中に定期的に更新されるソースドメインから、前景オブジェクトと背景領域の事前計算された特徴を格納する。
対象のフォアグラウンドや背景の特徴に合わせて視覚的に類似した特徴を抽出することにより、このモデルは視覚的変動の影響を低減しつつ、ドメイン固有の差異を効果的に解決する。
様々なドメインシフトシナリオにわたる大規模な実験により、Fogdy Cityscapesでは53.1 mAP、Sim10kでは62.3mAP、以前の最先端の手法では1.2mAPと4.1mAPを上回った。
関連論文リスト
- Exploiting Aggregation and Segregation of Representations for Domain Adaptive Human Pose Estimation [50.31351006532924]
人間のポーズ推定(HPE)は最近、モーション分析、バーチャルリアリティー、ヘルスケア等に広く応用されているため、注目を集めている。
時間と労働集約的なアノテーションのために、ラベル付き現実世界のデータセットが不足している。
本稿では,ドメイン適応型人間のポーズ推定のための表現集約と分離を両立させる新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-29T17:59:45Z) - An End-to-end Supervised Domain Adaptation Framework for Cross-Domain
Change Detection [29.70695339406896]
クロスドメイン変更検出のためのエンドツーエンドのドメイン適応フレームワークを提案する。
SDACDは画像と特徴の両方の観点から協調的な適応と教師あり学習を提示する。
我々のフレームワークは、いくつかの代表的ベースラインモデルを新しいState-Of-The-Artレコードに押し上げる。
論文 参考訳(メタデータ) (2022-04-01T01:35:30Z) - Seeking Similarities over Differences: Similarity-based Domain Alignment
for Adaptive Object Detection [86.98573522894961]
本研究では,Unsupervised Domain Adaptation (UDA) アルゴリズムが検出に使用するコンポーネントを一般化するフレームワークを提案する。
具体的には、最適な設計選択を生かした新しいUDAアルゴリズムViSGAを提案し、インスタンスレベルの特徴を集約する単純だが効果的な方法を提案する。
類似性に基づくグループ化と対角トレーニングの両方により、モデルでは、ゆるやかに整列されたドメインにまたがるすべてのインスタンスにマッチせざるを得ず、機能グループを粗い整列することに集中することが可能であることが示されています。
論文 参考訳(メタデータ) (2021-10-04T13:09:56Z) - Improving Transferability of Domain Adaptation Networks Through Domain
Alignment Layers [1.3766148734487902]
マルチソースアン教師付きドメイン適応(MSDA)は、ソースモデルの袋から弱い知識を割り当てることで、ラベルのないドメインの予測子を学習することを目的としている。
我々は,DomaIn Alignment Layers (MS-DIAL) のマルチソースバージョンを予測器の異なるレベルに埋め込むことを提案する。
我々の手法は最先端のMSDA法を改善することができ、分類精度の相対利得は+30.64%に達する。
論文 参考訳(メタデータ) (2021-09-06T18:41:19Z) - PIT: Position-Invariant Transform for Cross-FoV Domain Adaptation [53.428312630479816]
フィールド・オブ・ビュー(FoV)ギャップは、ソースとターゲットドメイン間の顕著なインスタンスの出現差を誘導する。
本研究では,異なる領域における画像の整合性を改善するために,textbfPosition-Invariant Transform (PIT)を提案する。
論文 参考訳(メタデータ) (2021-08-16T15:16:47Z) - Domain Adaptive YOLO for One-Stage Cross-Domain Detection [4.596221278839825]
ドメイン適応型YOLO (DA-YOLO) は1段検出器のクロスドメイン性能を向上させるために提案される。
提案手法を,Cityscapes,KITTI,SIM10Kなどの一般的なデータセット上で評価する。
論文 参考訳(メタデータ) (2021-06-26T04:17:42Z) - AFAN: Augmented Feature Alignment Network for Cross-Domain Object
Detection [90.18752912204778]
オブジェクト検出のための教師なしドメイン適応は、多くの現実世界のアプリケーションにおいて難しい問題である。
本稿では、中間領域画像生成とドメイン・アドバイザリー・トレーニングを統合した新しい機能アライメント・ネットワーク(AFAN)を提案する。
提案手法は、類似および異種ドメイン適応の双方において、標準ベンチマークにおける最先端の手法よりも大幅に優れている。
論文 参考訳(メタデータ) (2021-06-10T05:01:20Z) - Spatial Attention Pyramid Network for Unsupervised Domain Adaptation [66.75008386980869]
教師なし領域適応は様々なコンピュータビジョンタスクにおいて重要である。
教師なし領域適応のための新しい空間注意ピラミッドネットワークを設計する。
我々の手法は最先端の手法に対して大きなマージンで好適に機能する。
論文 参考訳(メタデータ) (2020-03-29T09:03:23Z) - Cross-domain Object Detection through Coarse-to-Fine Feature Adaptation [62.29076080124199]
本稿では,クロスドメインオブジェクト検出のための特徴適応手法を提案する。
粗粒度では、アテンション機構を採用して前景領域を抽出し、その辺縁分布に応じて整列する。
粒度の細かい段階では、同じカテゴリのグローバルプロトタイプと異なるドメインとの距離を最小化することにより、前景の条件分布アライメントを行う。
論文 参考訳(メタデータ) (2020-03-23T13:40:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。