論文の概要: Learning Diverse Representations for Fast Adaptation to Distribution
Shift
- arxiv url: http://arxiv.org/abs/2006.07119v1
- Date: Fri, 12 Jun 2020 12:23:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 02:49:38.120938
- Title: Learning Diverse Representations for Fast Adaptation to Distribution
Shift
- Title(参考訳): 分布シフトへの素早い適応のための多様な表現の学習
- Authors: Daniel Pace, Alessandra Russo, Murray Shanahan
- Abstract要約: 本稿では,複数のモデルを学習する手法を提案する。
分散シフトへの迅速な適応を促進するフレームワークの能力を実証する。
- 参考スコア(独自算出の注目度): 78.83747601814669
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The i.i.d. assumption is a useful idealization that underpins many successful
approaches to supervised machine learning. However, its violation can lead to
models that learn to exploit spurious correlations in the training data,
rendering them vulnerable to adversarial interventions, undermining their
reliability, and limiting their practical application. To mitigate this
problem, we present a method for learning multiple models, incorporating an
objective that pressures each to learn a distinct way to solve the task. We
propose a notion of diversity based on minimizing the conditional total
correlation of final layer representations across models given the label, which
we approximate using a variational estimator and minimize using adversarial
training. To demonstrate our framework's ability to facilitate rapid adaptation
to distribution shift, we train a number of simple classifiers from scratch on
the frozen outputs of our models using a small amount of data from the shifted
distribution. Under this evaluation protocol, our framework significantly
outperforms a baseline trained using the empirical risk minimization principle.
- Abstract(参考訳): i.i.d.仮定は、機械学習を監督する多くの成功したアプローチを支える有用な理想化である。
しかし、その違反はトレーニングデータの散発的な相関を悪用し、敵の介入に弱くし、信頼性を損なうことを学び、実用的応用を制限するモデルに繋がる可能性がある。
この問題を軽減するために,複数のモデルの学習方法を提案する。
本稿では,ラベルが与えられたモデル間の最終層表現の条件的全相関を最小化し,変動推定器を用いて近似し,逆訓練を用いて最小化することに基づく多様性の概念を提案する。
分散シフトへの迅速な適応を容易にするフレームワークの能力を示すために、シフトした分布から少量のデータを用いて、モデルの凍結出力をスクラッチから多くの単純な分類器を訓練する。
この評価プロトコルでは,経験的リスク最小化原理を用いてトレーニングしたベースラインを著しく上回っている。
関連論文リスト
- Leveraging Diffusion Disentangled Representations to Mitigate Shortcuts
in Underspecified Visual Tasks [92.32670915472099]
拡散確率モデル(DPM)を用いた合成カウンターファクトの生成を利用したアンサンブルの多様化フレームワークを提案する。
拡散誘導型分散化は,データ収集を必要とする従来の手法に匹敵するアンサンブル多様性を達成し,ショートカットからの注意を回避できることを示す。
論文 参考訳(メタデータ) (2023-10-03T17:37:52Z) - Enhancing Multiple Reliability Measures via Nuisance-extended
Information Bottleneck [77.37409441129995]
トレーニングデータに制限がある現実的なシナリオでは、データ内の多くの予測信号は、データ取得のバイアスからより多く得る。
我々は,相互情報制約の下で,より広い範囲の摂動をカバーできる敵の脅威モデルを考える。
そこで本研究では,その目的を実現するためのオートエンコーダベーストレーニングと,提案したハイブリッド識別世代学習を促進するための実用的なエンコーダ設計を提案する。
論文 参考訳(メタデータ) (2023-03-24T16:03:21Z) - Distributionally Robust Models with Parametric Likelihood Ratios [123.05074253513935]
3つの単純なアイデアにより、より広いパラメトリックな確率比のクラスを用いてDROでモデルを訓練することができる。
パラメトリック逆数を用いてトレーニングしたモデルは、他のDROアプローチと比較して、サブポピュレーションシフトに対して一貫して頑健であることがわかった。
論文 参考訳(メタデータ) (2022-04-13T12:43:12Z) - Contrastive Learning for Fair Representations [50.95604482330149]
訓練された分類モデルは、意図せずバイアスのある表現や予測につながる可能性がある。
対戦訓練のような既存の分類モデルのデバイアス化手法は、訓練に高価であり、最適化が困難であることが多い。
比較学習を取り入れたバイアス軽減手法を提案し、同じクラスラベルを共有するインスタンスに類似した表現を推奨する。
論文 参考訳(メタデータ) (2021-09-22T10:47:51Z) - Deep Ensembles for Low-Data Transfer Learning [21.578470914935938]
我々は、事前訓練されたモデルからアンサンブルを作成する様々な方法を研究する。
プレトレーニング自体が多様性の優れた源であることが示される。
本稿では,任意の下流データセットに対して,事前学習したモデルのサブセットを効率的に同定する実用的なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-10-14T07:59:00Z) - Robust Federated Learning: The Case of Affine Distribution Shifts [41.27887358989414]
我々は,ユーザのサンプルの分布変化に対して良好な性能を実現するための,堅牢なフェデレーション学習アルゴリズムを開発した。
新しいテストユーザにおいて,アフィン分布シフトは学習者分類器の性能を著しく低下させるのに十分であることを示す。
論文 参考訳(メタデータ) (2020-06-16T03:43:59Z) - Meta-Learned Confidence for Few-shot Learning [60.6086305523402]
数ショットのメトリックベースのアプローチのための一般的なトランスダクティブ推論手法は、最も確実なクエリ例の平均で、各クラスのプロトタイプを更新することである。
本稿では,各クエリの信頼度をメタラーニングして,ラベルのないクエリに最適な重みを割り当てる手法を提案する。
4つのベンチマークデータセットに対してメタ学習の信頼度で、少数ショットの学習モデルを検証した。
論文 参考訳(メタデータ) (2020-02-27T10:22:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。