論文の概要: Adaptive Domain Generalization via Online Disagreement Minimization
- arxiv url: http://arxiv.org/abs/2208.01996v2
- Date: Sun, 9 Jul 2023 13:23:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-11 19:24:13.201486
- Title: Adaptive Domain Generalization via Online Disagreement Minimization
- Title(参考訳): オンライン診断最小化による適応的ドメイン一般化
- Authors: Xin Zhang, Ying-Cong Chen
- Abstract要約: ドメインの一般化は、モデルを目に見えないターゲットのドメインに安全に転送することを目的としています。
AdaODMは、異なるターゲットドメインに対するテスト時にソースモデルを適応的に修正する。
その結果,AdaODMは未確認領域の一般化能力を安定的に向上することがわかった。
- 参考スコア(独自算出の注目度): 17.215683606365445
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep neural networks suffer from significant performance deterioration when
there exists distribution shift between deployment and training. Domain
Generalization (DG) aims to safely transfer a model to unseen target domains by
only relying on a set of source domains. Although various DG approaches have
been proposed, a recent study named DomainBed, reveals that most of them do not
beat the simple Empirical Risk Minimization (ERM). To this end, we propose a
general framework that is orthogonal to existing DG algorithms and could
improve their performance consistently. Unlike previous DG works that stake on
a static source model to be hopefully a universal one, our proposed AdaODM
adaptively modifies the source model at test time for different target domains.
Specifically, we create multiple domain-specific classifiers upon a shared
domain-generic feature extractor. The feature extractor and classifiers are
trained in an adversarial way, where the feature extractor embeds the input
samples into a domain-invariant space, and the multiple classifiers capture the
distinct decision boundaries that each of them relates to a specific source
domain. During testing, distribution differences between target and source
domains could be effectively measured by leveraging prediction disagreement
among source classifiers. By fine-tuning source models to minimize the
disagreement at test time, target domain features are well aligned to the
invariant feature space. We verify AdaODM on two popular DG methods, namely ERM
and CORAL, and four DG benchmarks, namely VLCS, PACS, OfficeHome, and
TerraIncognita. The results show AdaODM stably improves the generalization
capacity on unseen domains and achieves state-of-the-art performance.
- Abstract(参考訳): ディープニューラルネットワークは、デプロイメントとトレーニングの間に分散シフトがある場合、パフォーマンスが著しく低下する。
ドメインジェネリゼーション(dg)は、ソースドメインの集合のみに依存することによって、モデルをターゲットドメインに安全に転送することを目的としている。
様々なDGアプローチが提案されているが、DomainBedという最近の研究によると、そのほとんどは単純な経験的リスク最小化(ERM)に勝っていない。
そこで本研究では,既存のDGアルゴリズムに直交する汎用フレームワークを提案する。
従来のdgと異なり、静的なソースモデルに固執して普遍的であることを願っているが、提案するadaodmは、異なるターゲットドメインのテスト時にソースモデルを適応的に修正する。
具体的には、共有ドメインジェネリック特徴抽出器上に複数のドメイン固有の分類器を作成する。
特徴抽出器と分類器は、その特徴抽出器が入力サンプルをドメイン不変空間に埋め込み、複数の分類器がそれぞれが特定のソースドメインに関連する決定境界をキャプチャする逆方向で訓練される。
テスト中、ソース分類器間の予測不一致を利用して、ターゲットドメインとソースドメインの分布差を効果的に測定できる。
テスト時に不一致を最小限に抑えるためにソースモデルを微調整することで、ターゲットドメイン機能は不変機能空間とよく一致します。
AdaODMは、EMMとCORALという2つの一般的なDG手法と、VLCS、PACS、OfficeHome、TerraIncognitaという4つのDGベンチマークで検証する。
その結果, adaodm は未認識領域の一般化能力を安定的に改善し, 最先端の性能を実現する。
関連論文リスト
- Revisiting the Domain Shift and Sample Uncertainty in Multi-source
Active Domain Transfer [69.82229895838577]
Active Domain Adaptation (ADA)は、アノテートするターゲットデータの限られた数を選択することで、新しいターゲットドメインにおけるモデル適応を最大限に向上することを目的としている。
この設定は、複数のソースからトレーニングデータを収集するより実践的なシナリオを無視します。
これは、ADAを単一のソースドメインから複数のソースドメインに拡張する、新しい、挑戦的な知識転送の設定を目標にしています。
論文 参考訳(メタデータ) (2023-11-21T13:12:21Z) - Dynamic Domain Discrepancy Adjustment for Active Multi-Domain Adaptation [3.367755441623275]
マルチソースアン教師付きドメイン適応(MUDA)は、関連するソースドメインから未ラベルのターゲットドメインに知識を転送することを目的としている。
アクティブマルチドメイン適応(D3AAMDA)のための動的ドメイン不一致適応法(Dynamic Domain Disrepancy Adjustment)を提案する。
このメカニズムは、ソースドメインとターゲットドメイン間の特徴のアライメントレベルを制御し、ソースドメイン内のローカルな有利な特徴情報を効果的に活用する。
論文 参考訳(メタデータ) (2023-07-26T09:40:19Z) - Domain Generalization through the Lens of Angular Invariance [44.76809026901016]
ドメイン一般化(Domain Generalization, DG)は、複数のソースドメインで訓練された分類器を、ドメインシフトを伴う見えないターゲットドメインに一般化することを目的としている。
我々は、Angular Invariance Domain Generalization Network (AIDGN) と呼ばれる新しいディープDG手法を提案する。
論文 参考訳(メタデータ) (2022-10-28T02:05:38Z) - Compound Domain Generalization via Meta-Knowledge Encoding [55.22920476224671]
マルチモーダル分布を再正規化するために,スタイル駆動型ドメイン固有正規化(SDNorm)を導入する。
組込み空間における関係モデリングを行うために,プロトタイプ表現,クラスセントロイドを利用する。
4つの標準ドメイン一般化ベンチマークの実験により、COMENはドメインの監督なしに最先端のパフォーマンスを上回ることが判明した。
論文 参考訳(メタデータ) (2022-03-24T11:54:59Z) - From Big to Small: Adaptive Learning to Partial-Set Domains [94.92635970450578]
ドメイン適応は、分布シフト中のラベル付きソースドメインからラベルなしターゲットドメインへの知識獲得と普及を目標とする。
近年の進歩は、大規模の深層学習モデルにより、小規模の下流の多様な課題に取り組むための豊富な知識が得られていることを示している。
本稿では,学習パラダイムである部分領域適応(Partial Domain Adaptation, PDA)を紹介する。
論文 参考訳(メタデータ) (2022-03-14T07:02:45Z) - META: Mimicking Embedding via oThers' Aggregation for Generalizable
Person Re-identification [68.39849081353704]
Domain Generalizable (DG) Person Re-identification (ReID)は、トレーニング時に対象のドメインデータにアクセスすることなく、見えないドメインをまたいでテストすることを目的としている。
本稿では,DG ReID のための OThers' Aggregation (META) を用いた Mimicking Embedding という新しい手法を提案する。
論文 参考訳(メタデータ) (2021-12-16T08:06:50Z) - Discrepancy Minimization in Domain Generalization with Generative
Nearest Neighbors [13.047289562445242]
ドメイン一般化(Domain Generalization, DG)は、複数のソースドメインでトレーニングされた機械学習モデルが、統計の異なるターゲットドメインでうまく一般化できないという、ドメインシフトの問題を扱う。
シフト対象領域の一般化を保証するのに失敗するソースドメイン全体にわたるドメイン不変表現を学習することにより、ドメイン一般化の問題を解決するために、複数のアプローチが提案されている。
本稿では,GNNDM(Generative Nearest Neighbor Based Discrepancy Minimization)法を提案する。
論文 参考訳(メタデータ) (2020-07-28T14:54:25Z) - Dual Distribution Alignment Network for Generalizable Person
Re-Identification [174.36157174951603]
ドメイン一般化(DG)は、人物再識別(Re-ID)を扱うための有望なソリューションとして機能する
本稿では、複数のソースドメインの分布を選択的に整列させることにより、この問題に対処するDual Distribution Alignment Network(DDAN)を提案する。
大規模なDomain Generalization Re-ID(DG Re-ID)ベンチマークでDDANを評価した。
論文 参考訳(メタデータ) (2020-07-27T00:08:07Z) - Domain Conditioned Adaptation Network [90.63261870610211]
本稿では,ドメイン条件付きチャネルアテンション機構を用いて,異なる畳み込みチャネルを励起するドメイン条件適応ネットワーク(DCAN)を提案する。
これは、ディープDAネットワークのドメインワイドな畳み込みチャネルアクティベーションを探求する最初の試みである。
論文 参考訳(メタデータ) (2020-05-14T04:23:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。