論文の概要: On the Connection between Invariant Learning and Adversarial Training
for Out-of-Distribution Generalization
- arxiv url: http://arxiv.org/abs/2212.09082v1
- Date: Sun, 18 Dec 2022 13:13:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-20 18:06:18.994660
- Title: On the Connection between Invariant Learning and Adversarial Training
for Out-of-Distribution Generalization
- Title(参考訳): 分散一般化のための不変学習と敵対的学習との関係について
- Authors: Shiji Xin, Yifei Wang, Jingtong Su, Yisen Wang
- Abstract要約: ディープラーニングモデルは、アウト・オブ・ディストリビューション(OOD)データに一般化されたときに壊滅的に失敗する、急激な機能に依存している。
最近の研究によると、不変リスク最小化(IRM)は特定の種類の分散シフトに対してのみ有効であり、他のケースでは失敗する。
ドメイン固有摂動による分布変化を緩和するATインスパイアされた手法であるドメインワイズ・アドバイザリアル・トレーニング(DAT)を提案する。
- 参考スコア(独自算出の注目度): 14.233038052654484
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite impressive success in many tasks, deep learning models are shown to
rely on spurious features, which will catastrophically fail when generalized to
out-of-distribution (OOD) data. Invariant Risk Minimization (IRM) is proposed
to alleviate this issue by extracting domain-invariant features for OOD
generalization. Nevertheless, recent work shows that IRM is only effective for
a certain type of distribution shift (e.g., correlation shift) while it fails
for other cases (e.g., diversity shift). Meanwhile, another thread of method,
Adversarial Training (AT), has shown better domain transfer performance,
suggesting that it has the potential to be an effective candidate for
extracting domain-invariant features. This paper investigates this possibility
by exploring the similarity between the IRM and AT objectives. Inspired by this
connection, we propose Domainwise Adversarial Training (DAT), an AT-inspired
method for alleviating distribution shift by domain-specific perturbations.
Extensive experiments show that our proposed DAT can effectively remove
domain-varying features and improve OOD generalization under both correlation
shift and diversity shift.
- Abstract(参考訳): 多くのタスクで顕著な成功を収めたにもかかわらず、ディープラーニングモデルは急激な機能に依存しており、アウト・オブ・ディストリビューション(OOD)データに一般化されると壊滅的に失敗する。
不変リスク最小化(IRM)は、OOD一般化のためのドメイン不変特徴を抽出することによりこの問題を軽減するために提案される。
しかしながら、最近の研究は、IRMは特定の種類の分布シフト(例えば相関シフト)に対してのみ有効であるが、他のケース(例えば多様性シフト)では失敗することを示している。
一方、Adversarial Training (AT) という別の手法ではドメイン転送性能が向上しており、ドメイン不変の特徴を抽出する有効な候補となる可能性が示唆されている。
本稿では、IRMとATの目的との類似性を探る。
この関係に触発されて,ドメイン固有摂動による分布変化を緩和するat-inspired手法である domainwise adversarial training (dat) を提案する。
拡張実験により,提案したDATはドメイン変化の特徴を効果的に除去し,OODの一般化を相関シフトと多様性シフトの両方で改善できることが示された。
関連論文リスト
- Mimicking Better by Matching the Approximate Action Distribution [48.95048003354255]
そこで我々は,Imitation Learning from Observationsのための新しい,サンプル効率の高いオンライン政治アルゴリズムMAADを紹介する。
我々は、専門家のパフォーマンスを達成するためには、かなり少ないインタラクションが必要であり、現在最先端の政治手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-16T12:43:47Z) - Source-free Domain Adaptation Requires Penalized Diversity [60.04618512479438]
ソースデータがない場合、異なるドメイン間の知識伝達に対処するために、ソースフリードメイン適応(SFDA)が導入された。
教師なしのFDAでは、多様性はソース上の1つの仮説を学習するか、共有された特徴抽出器で複数の仮説を学習することに限定される。
本稿では,異なる特徴抽出器を用いて表現多様性を促進する新しい無教師付きSFDAアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-04-06T00:20:19Z) - MADAv2: Advanced Multi-Anchor Based Active Domain Adaptation
Segmentation [98.09845149258972]
セマンティックセグメンテーションタスクに関するドメイン適応を支援するために,アクティブなサンプル選択を導入する。
これらのサンプルを手動でアノテートする作業量が少ないため、ターゲット領域分布の歪みを効果的に緩和することができる。
長期分布問題を緩和するために、強力な半教師付きドメイン適応戦略を提案する。
論文 参考訳(メタデータ) (2023-01-18T07:55:22Z) - Improving Transferability of Domain Adaptation Networks Through Domain
Alignment Layers [1.3766148734487902]
マルチソースアン教師付きドメイン適応(MSDA)は、ソースモデルの袋から弱い知識を割り当てることで、ラベルのないドメインの予測子を学習することを目的としている。
我々は,DomaIn Alignment Layers (MS-DIAL) のマルチソースバージョンを予測器の異なるレベルに埋め込むことを提案する。
我々の手法は最先端のMSDA法を改善することができ、分類精度の相対利得は+30.64%に達する。
論文 参考訳(メタデータ) (2021-09-06T18:41:19Z) - Dynamic Domain Adaptation for Efficient Inference [12.713628738434881]
ドメイン適応(DA)は、ラベル付きソースドメインからラベルなしターゲットドメインへの知識転送を可能にする。
以前のdaアプローチのほとんどは、適応能力を改善するために複雑で強力なディープニューラルネットワークを活用する。
低リソースシナリオにおいて効率的なターゲット推論を同時に実現できる動的ドメイン適応(DDA)フレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-26T08:53:16Z) - Margin Preserving Self-paced Contrastive Learning Towards Domain
Adaptation for Medical Image Segmentation [51.93711960601973]
クロスモーダル医療画像セグメンテーションのための自己ペースコントラスト学習モデルを保存する新しいマージンを提案する。
プログレッシブに洗練されたセマンティックプロトタイプの指導により、埋め込み表現空間の識別性を高めるために、コントラスト損失を減少させる新しいマージンが提案される。
クロスモーダル心セグメンテーションタスクの実験は、MPSCLが意味セグメンテーション性能を大幅に改善することを示した。
論文 参考訳(メタデータ) (2021-03-15T15:23:10Z) - Learning Invariant Representations and Risks for Semi-supervised Domain
Adaptation [109.73983088432364]
半教師付きドメイン適応(Semi-DA)の設定の下で不変表現とリスクを同時に学習することを目的とした最初の手法を提案する。
共同で textbfLearning textbfInvariant textbfRepresentations と textbfRisks の LIRR アルゴリズムを導入する。
論文 参考訳(メタデータ) (2020-10-09T15:42:35Z) - Adaptively-Accumulated Knowledge Transfer for Partial Domain Adaptation [66.74638960925854]
部分ドメイン適応(PDA)は、ソースドメインラベル空間がターゲットドメインを置き換えるとき、現実的で困難な問題を扱う。
本稿では,2つの領域にまたがる関連カテゴリを整合させる適応的知識伝達フレームワーク(A$2KT)を提案する。
論文 参考訳(メタデータ) (2020-08-27T00:53:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。