論文の概要: Representation via Representations: Domain Generalization via
Adversarially Learned Invariant Representations
- arxiv url: http://arxiv.org/abs/2006.11478v1
- Date: Sat, 20 Jun 2020 02:35:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-18 22:12:08.178070
- Title: Representation via Representations: Domain Generalization via
Adversarially Learned Invariant Representations
- Title(参考訳): 表現による表現:逆学習不変表現によるドメイン一般化
- Authors: Zhun Deng, Frances Ding, Cynthia Dwork, Rachel Hong, Giovanni
Parmigiani, Prasad Patil, Pragya Sur
- Abstract要約: 複数の「研究」(または領域)から不変表現を学習するための敵対的検閲手法について検討する。
医学的な予測のような多くの文脈において、人口の多い地域での研究からの領域の一般化は、アルゴリズム的公正性に関する以前の研究では予想されていなかった、異なる風味の公平性を提供する。
- 参考スコア(独自算出の注目度): 14.751829773340537
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We investigate the power of censoring techniques, first developed for
learning {\em fair representations}, to address domain generalization. We
examine {\em adversarial} censoring techniques for learning invariant
representations from multiple "studies" (or domains), where each study is drawn
according to a distribution on domains. The mapping is used at test time to
classify instances from a new domain. In many contexts, such as medical
forecasting, domain generalization from studies in populous areas (where data
are plentiful), to geographically remote populations (for which no training
data exist) provides fairness of a different flavor, not anticipated in
previous work on algorithmic fairness.
We study an adversarial loss function for $k$ domains and precisely
characterize its limiting behavior as $k$ grows, formalizing and proving the
intuition, backed by experiments, that observing data from a larger number of
domains helps. The limiting results are accompanied by non-asymptotic
learning-theoretic bounds. Furthermore, we obtain sufficient conditions for
good worst-case prediction performance of our algorithm on previously unseen
domains. Finally, we decompose our mappings into two components and provide a
complete characterization of invariance in terms of this decomposition. To our
knowledge, our results provide the first formal guarantees of these kinds for
adversarial invariant domain generalization.
- Abstract(参考訳): ドメインの一般化に対処するために,まず学習のための検閲手法の力について検討する。
領域上の分布に従って各研究が描画される複数の"studies"(あるいはドメイン)から不変表現を学ぶための"em adversarial" 検閲手法について検討する。
マッピングは新しいドメインからインスタンスを分類するためにテスト時に使用される。
医療予測のような多くの文脈において、人口の多い地域(データが豊富にある)における研究から、(訓練データが存在しない)地理的に遠隔の集団への領域一般化は、アルゴリズム的公平性に関する以前の研究では予想されていなかった、異なる風味の公平性をもたらす。
我々は、$k$ドメインの対向損失関数を研究し、その制限動作を$k$成長として正確に特徴付け、多くのドメインからデータを観測する実験によって裏付けられた直観を形式化し証明する。
制限結果は非漸近的な学習-理論境界を伴う。
さらに,未確認領域におけるアルゴリズムの最悪の予測性能について十分な条件を得る。
最後に、写像を2つの成分に分解し、この分解の観点から不変性を完全に特徴づける。
我々の知る限り、我々の結果は、逆不変領域の一般化に対するこれらの種類の最初の公式な保証を提供する。
関連論文リスト
- Causally Inspired Regularization Enables Domain General Representations [14.036422506623383]
異なるドメイン/ディストリビューション間で共有されるデータ生成プロセスを表す因果グラフが与えられた場合、十分なグラフで実装された条件付き独立性は、ドメイン一般(非スパージャ)の特徴表現を識別することができる。
本稿では,素早い特徴の事前知識(あるいはプロキシ)を伴わないドメイン汎用特徴表現の同定に十分であることを示す,正規化を伴う新しいフレームワークを提案する。
提案手法は、合成データと実世界のデータの両方に有効であり、平均および最悪のドメイン転送精度で、他の最先端手法よりも優れている。
論文 参考訳(メタデータ) (2024-04-25T01:33:55Z) - Domain Generalization via Causal Adjustment for Cross-Domain Sentiment
Analysis [59.73582306457387]
クロスドメイン感情分析における領域一般化の問題に焦点をあてる。
本稿では,ドメイン固有表現とドメイン不変表現をアンタングル化するバックドア調整に基づく因果モデルを提案する。
一連の実験は、我々のモデルの優れたパフォーマンスと堅牢性を示しています。
論文 参考訳(メタデータ) (2024-02-22T13:26:56Z) - Improving Domain Generalization with Domain Relations [77.63345406973097]
本稿では、モデルがトレーニングされたドメインと異なる新しいドメインに適用されたときに発生するドメインシフトに焦点を当てる。
ドメイン固有モデルを学習するためのD$3$Gという新しい手法を提案する。
以上の結果から,D$3$Gは最先端の手法より一貫して優れていた。
論文 参考訳(メタデータ) (2023-02-06T08:11:16Z) - Failure Modes of Domain Generalization Algorithms [29.772370301145543]
本稿では,ドメイン一般化アルゴリズムの評価フレームワークを提案する。
一般化誤差の最大の寄与要因は,手法,データセット,正規化強度,トレーニング長など多岐にわたる。
論文 参考訳(メタデータ) (2021-11-26T20:04:19Z) - Discriminative Domain-Invariant Adversarial Network for Deep Domain
Generalization [33.84004077585957]
本稿では,ドメイン一般化のための識別型ドメイン不変逆数ネットワーク(DDIAN)を提案する。
DDIANは、最先端のドメイン一般化アプローチと比較して、トレーニング中の未確認対象データに対するより良い予測を実現している。
論文 参考訳(メタデータ) (2021-08-20T04:24:12Z) - Domain-Class Correlation Decomposition for Generalizable Person
Re-Identification [34.813965300584776]
個人の再識別では、ドメインとクラスは相関する。
このドメイン・クラス間の相関関係により、ドメインの敵対的学習はクラスに関する特定の情報を失うことが示される。
我々のモデルは、大規模ドメイン一般化Re-IDベンチマークにおいて最先端の手法よりも優れている。
論文 参考訳(メタデータ) (2021-06-29T09:45:03Z) - A Bit More Bayesian: Domain-Invariant Learning with Uncertainty [111.22588110362705]
ドメインの一般化は、ドメインシフトと、ターゲットドメインデータのアクセス不能に起因する不確実性のために困難である。
本稿では,変分ベイズ推定に基づく確率的枠組みを用いて,両課題に対処する。
2層ベイズ型ニューラルネットワークで共同で確立されたドメイン不変表現と分類器を導出する。
論文 参考訳(メタデータ) (2021-05-09T21:33:27Z) - Heuristic Domain Adaptation [105.59792285047536]
Heuristic Domain Adaptation Network (HDAN)は、ドメイン不変およびドメイン固有表現を明示的に学習する。
Heuristic Domain Adaptation Network (HDAN)は、教師なしDA、マルチソースDA、半教師なしDAの最先端を超越している。
論文 参考訳(メタデータ) (2020-11-30T04:21:35Z) - Batch Normalization Embeddings for Deep Domain Generalization [50.51405390150066]
ドメインの一般化は、異なるドメインと見えないドメインで堅牢に実行されるように機械学習モデルをトレーニングすることを目的としている。
一般的な領域一般化ベンチマークにおいて,最先端技術よりも分類精度が著しく向上したことを示す。
論文 参考訳(メタデータ) (2020-11-25T12:02:57Z) - Learning to Learn with Variational Information Bottleneck for Domain
Generalization [128.90691697063616]
ドメイン一般化モデルは、これまで見つからなかった領域に一般化することを学ぶが、予測の不確実性とドメインシフトに悩まされる。
ドメイン一般化のための確率論的メタラーニングモデルを導入し、ドメイン間で共有されるパラメータを分布としてモデル化する。
ドメインシフトに対処するため、メタ変動情報ボトルネックという提案原則を用いてドメイン不変表現を学習し、メタVIBと呼ぶ。
論文 参考訳(メタデータ) (2020-07-15T12:05:52Z) - In Search of Lost Domain Generalization [25.43757332883202]
ドメインの一般化のためのテストベッドであるDomainBedを実装します。
DomainBedを用いて広範な実験を行い、慎重に実装すると、経験的リスク最小化が最先端のパフォーマンスを示すことを確かめる。
論文 参考訳(メタデータ) (2020-07-02T23:08:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。