論文の概要: Attention Diversification for Domain Generalization
- arxiv url: http://arxiv.org/abs/2210.04206v1
- Date: Sun, 9 Oct 2022 09:15:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-11 17:28:40.792835
- Title: Attention Diversification for Domain Generalization
- Title(参考訳): 領域一般化のための注意の多様化
- Authors: Rang Meng, Xianfeng Li, Weijie Chen, Shicai Yang, Jie Song, Xinchao
Wang, Lei Zhang, Mingli Song, Di Xie, and Shiliang Pu
- Abstract要約: 畳み込みニューラルネットワーク(CNN)は、識別的特徴を学習する際の満足度を実証している。
目に見えないドメインに適用する場合、最先端のモデルは通常、ドメインシフトによってエラーを起こしやすい。
そこで本研究では,モデル内およびモデル間アテンションの多角化を協調的に行う,新しいアテンションの多様化フレームワークを提案する。
- 参考スコア(独自算出の注目度): 92.02038576148774
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Convolutional neural networks (CNNs) have demonstrated gratifying results at
learning discriminative features. However, when applied to unseen domains,
state-of-the-art models are usually prone to errors due to domain shift. After
investigating this issue from the perspective of shortcut learning, we find the
devils lie in the fact that models trained on different domains merely bias to
different domain-specific features yet overlook diverse task-related features.
Under this guidance, a novel Attention Diversification framework is proposed,
in which Intra-Model and Inter-Model Attention Diversification Regularization
are collaborated to reassign appropriate attention to diverse task-related
features. Briefly, Intra-Model Attention Diversification Regularization is
equipped on the high-level feature maps to achieve in-channel discrimination
and cross-channel diversification via forcing different channels to pay their
most salient attention to different spatial locations. Besides, Inter-Model
Attention Diversification Regularization is proposed to further provide
task-related attention diversification and domain-related attention
suppression, which is a paradigm of "simulate, divide and assemble": simulate
domain shift via exploiting multiple domain-specific models, divide attention
maps into task-related and domain-related groups, and assemble them within each
group respectively to execute regularization. Extensive experiments and
analyses are conducted on various benchmarks to demonstrate that our method
achieves state-of-the-art performance over other competing methods. Code is
available at https://github.com/hikvision-research/DomainGeneralization.
- Abstract(参考訳): 畳み込みニューラルネットワーク(CNN)は、識別的特徴の学習において満足な結果を示した。
しかし、未発見のドメインに適用される場合、最先端のモデルは通常、ドメインシフトによるエラーが発生しやすい。
近道学習の観点からこの問題を調査した後、異なるドメインでトレーニングされたモデルが異なるドメイン固有の機能にバイアスをかけているだけで、さまざまなタスク関連の機能を見落としているという事実に、悪魔は嘘をついていることがわかった。
本稿では,モデル内およびモデル間における注意分散規則化を協調してタスク関連機能に適切な注意を割り当てる,新たな注意多様化フレームワークを提案する。
簡単に言うと、モデル内注意多様化規則化は高レベル特徴マップに装備されており、異なるチャンネルを異なる空間に最も注意を払うように強制することで、チャネル内識別とチャネル間多様化を実現する。
さらに、複数のドメイン固有モデルを利用してドメインシフトをシミュレートし、アテンションマップをタスク関連およびドメイン関連グループに分割し、それらを各グループにまとめてレギュラー化を行う「シミュレート、分割、アセンブラ」のパラダイムである、タスク関連アテンションの多様化とドメイン関連アテンションの抑制を提供する。
本手法が他の競合する手法と比較して最先端性能を達成することを示すため,様々なベンチマークで実験と解析を行った。
コードはhttps://github.com/hikvision-research/Domain Generalizationで入手できる。
関連論文リスト
- Generalize or Detect? Towards Robust Semantic Segmentation Under Multiple Distribution Shifts [56.57141696245328]
斬新なクラスとドメインの両方が存在するようなオープンワールドシナリオでは、理想的なセグメンテーションモデルは安全のために異常なクラスを検出する必要がある。
既存の方法はドメインレベルとセマンティックレベルの分散シフトを区別するのに苦労することが多い。
論文 参考訳(メタデータ) (2024-11-06T11:03:02Z) - Towards Domain-Specific Features Disentanglement for Domain
Generalization [23.13095840134744]
そこで本研究では,見過ごされがちな領域特化特徴を生かした,新しいコントラッシブ・ベース・ディコンタンジメント法CDDGを提案する。
具体的には、CDDGは、潜在空間においてそれらを活用することによって、固有の排他的特徴を分離することを学ぶ。
各種ベンチマークデータセットを用いて行った実験は,他の最先端手法と比較して,本手法の優位性を示した。
論文 参考訳(メタデータ) (2023-10-04T17:51:02Z) - Multi-Head Distillation for Continual Unsupervised Domain Adaptation in
Semantic Segmentation [38.10483890861357]
この研究は、連続的 UDA である UDA を学習するための新しいフレームワークに焦点を当てている。
連続学習タスクに固有の破滅的忘れ問題の解法であるマルチヘッド蒸留法(Multi-Head Distillation)を提案する。
論文 参考訳(メタデータ) (2022-04-25T14:03:09Z) - Label Distribution Learning for Generalizable Multi-source Person
Re-identification [48.77206888171507]
人物再識別(Re-ID)は,映像監視システムにおいて重要な技術である。
教師付きモデルを任意の未確認領域に直接適用することは困難である。
一般化可能な多ソース人物Re-IDタスクに対処する新しいラベル分散学習法(LDL)を提案する。
論文 参考訳(メタデータ) (2022-04-12T15:59:10Z) - CADG: A Model Based on Cross Attention for Domain Generalization [6.136770353307872]
ドメイン一般化(DG)タスクでは、モデルは、ソースドメインからのトレーニングデータのみを使用して、目に見えないターゲットドメインの一般化を達成することで訓練される。
本稿では,分布シフト問題に対処するため,CADGというモデル(領域一般化のためのクロスアテンション)を設計する。
実験により,提案手法は様々な領域の一般化ベンチマークにおいて最先端の性能を実現することを示す。
論文 参考訳(メタデータ) (2022-03-31T14:35:21Z) - AFAN: Augmented Feature Alignment Network for Cross-Domain Object
Detection [90.18752912204778]
オブジェクト検出のための教師なしドメイン適応は、多くの現実世界のアプリケーションにおいて難しい問題である。
本稿では、中間領域画像生成とドメイン・アドバイザリー・トレーニングを統合した新しい機能アライメント・ネットワーク(AFAN)を提案する。
提案手法は、類似および異種ドメイン適応の双方において、標準ベンチマークにおける最先端の手法よりも大幅に優れている。
論文 参考訳(メタデータ) (2021-06-10T05:01:20Z) - Contrastive ACE: Domain Generalization Through Alignment of Causal
Mechanisms [34.99779761100095]
ドメインの一般化は、異なる分布にまたがる知識不変性を学ぶことを目的としている。
ラベルに対する特徴の因果効果の平均的因果効果の因果不変性を考察する。
論文 参考訳(メタデータ) (2021-06-02T04:01:22Z) - Channel-wise Alignment for Adaptive Object Detection [66.76486843397267]
遺伝的物体検出は、ディープ畳み込みニューラルネットワークの開発によって大いに促進されている。
このタスクの既存の方法は、通常、画像全体や関心の対象に基づいて、ハイレベルなアライメントに注意を向ける。
本稿では,チャネルワイドアライメント(チャネルワイドアライメント)という,まったく異なる観点からの適応を実現する。
論文 参考訳(メタデータ) (2020-09-07T02:42:18Z) - Learning to Combine: Knowledge Aggregation for Multi-Source Domain
Adaptation [56.694330303488435]
マルチソースドメイン適応(LtC-MSDA)フレームワークを併用する学習法を提案する。
簡単に言うと、知識グラフは様々なドメインのプロトタイプ上に構築され、セマンティックに隣接した表現間の情報伝達を実現する。
我々のアプローチは、既存の手法よりも顕著なマージンで優れています。
論文 参考訳(メタデータ) (2020-07-17T07:52:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。