論文の概要: Evading the Simplicity Bias: Training a Diverse Set of Models Discovers
Solutions with Superior OOD Generalization
- arxiv url: http://arxiv.org/abs/2105.05612v1
- Date: Wed, 12 May 2021 12:12:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-13 12:30:28.916364
- Title: Evading the Simplicity Bias: Training a Diverse Set of Models Discovers
Solutions with Superior OOD Generalization
- Title(参考訳): 単純性バイアスの解法--高次OOD一般化による解の様々なモデル集合の訓練
- Authors: Damien Teney, Ehsan Abbasnejad, Simon Lucey, Anton van den Hengel
- Abstract要約: SGDで訓練されたニューラルネットワークは最近、線形予測的特徴に優先的に依存することが示された。
この単純さバイアスは、分布外堅牢性(OOD)の欠如を説明することができる。
単純さのバイアスを軽減し,ood一般化を改善できることを実証する。
- 参考スコア(独自算出の注目度): 93.8373619657239
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural networks trained with SGD were recently shown to rely preferentially
on linearly-predictive features and can ignore complex, equally-predictive
ones. This simplicity bias can explain their lack of robustness out of
distribution (OOD). The more complex the task to learn, the more likely it is
that statistical artifacts (i.e. selection biases, spurious correlations) are
simpler than the mechanisms to learn.
We demonstrate that the simplicity bias can be mitigated and OOD
generalization improved. We train a set of similar models to fit the data in
different ways using a penalty on the alignment of their input gradients. We
show theoretically and empirically that this induces the learning of more
complex predictive patterns.
OOD generalization fundamentally requires information beyond i.i.d. examples,
such as multiple training environments, counterfactual examples, or other side
information. Our approach shows that we can defer this requirement to an
independent model selection stage. We obtain SOTA results in visual recognition
on biased data and generalization across visual domains. The method - the first
to evade the simplicity bias - highlights the need for a better understanding
and control of inductive biases in deep learning.
- Abstract(参考訳): sgdでトレーニングされたニューラルネットワークは、最近、線形予測的特徴に優先的に依存し、複雑で等予測的特徴を無視できることが示されている。
この単純さのバイアスは、分布外の堅牢性(OOD)の欠如を説明することができる。
学習すべきタスクが複雑になればなるほど、統計的アーティファクト(すなわち、統計的アーティファクト)がより複雑になる。
選択バイアス(sprious correlations)は学習するメカニズムよりも単純である。
単純さのバイアスを軽減し,ood一般化を改善できることを実証する。
我々は、入力勾配のアライメントにペナルティを用いて、データに異なる方法で適合するように、類似したモデルのセットを訓練する。
これがより複雑な予測パターンの学習を引き起こすことを理論的および実証的に示す。
OOD一般化は基本的に、i.d.以外の情報を必要とする。
例えば、複数のトレーニング環境、偽りの例、その他のサイド情報などです。
このアプローチは、この要件を独立したモデル選択段階に延期できることを示しています。
偏りのあるデータの視覚認識と視覚領域の一般化を行うsoma結果を得る。
単純さのバイアスを回避した最初の方法であるこの方法は、ディープラーニングにおける帰納的バイアスをよりよく理解し制御する必要性を強調している。
関連論文リスト
- Model Debiasing by Learnable Data Augmentation [19.625915578646758]
本稿では,トレーニングを正規化可能なデータ拡張戦略を備えた,新しい2段階学習パイプラインを提案する。
合成および現実的なバイアス付きデータセットの実験は、最先端の分類精度を示し、競合する手法より優れている。
論文 参考訳(メタデータ) (2024-08-09T09:19:59Z) - Addressing Bias Through Ensemble Learning and Regularized Fine-Tuning [0.2812395851874055]
本稿では,AIモデルのバイアスを取り除くために,複数の手法を用いた包括的アプローチを提案する。
我々は、データ分割、局所訓練、正規化ファインチューニングを通じて、事前訓練されたモデルのカウンターバイアスで複数のモデルを訓練する。
我々は、単一のバイアスのないニューラルネットワークをもたらす知識蒸留を用いて、ソリューションを結論付けている。
論文 参考訳(メタデータ) (2024-02-01T09:24:36Z) - Mitigating Simplicity Bias in Deep Learning for Improved OOD
Generalization and Robustness [5.976013616522926]
モデルに対して,より多様な機能セットを使用して予測を行うように促すフレームワークを提案する。
まず、簡単なモデルを訓練し、その上で条件付き相互情報を規則化し、最終的なモデルを得る。
様々な問題設定や実世界のアプリケーションにおいて,このフレームワークの有効性を実証する。
論文 参考訳(メタデータ) (2023-10-09T21:19:39Z) - Pseudo Bias-Balanced Learning for Debiased Chest X-ray Classification [57.53567756716656]
本研究では, バイアスラベルを正確に把握せず, 脱バイアス胸部X線診断モデルの開発について検討した。
本稿では,まずサンプルごとのバイアスラベルをキャプチャし,予測する新しいアルゴリズム,擬似バイアスバランス学習を提案する。
提案手法は他の最先端手法よりも一貫した改善を実現した。
論文 参考訳(メタデータ) (2022-03-18T11:02:18Z) - CMW-Net: Learning a Class-Aware Sample Weighting Mapping for Robust Deep
Learning [55.733193075728096]
現代のディープニューラルネットワークは、破損したラベルやクラス不均衡を含むバイアス付きトレーニングデータに容易に適合する。
サンプル再重み付け手法は、このデータバイアス問題を緩和するために一般的に使用されている。
本稿では,データから直接明示的な重み付け方式を適応的に学習できるメタモデルを提案する。
論文 参考訳(メタデータ) (2022-02-11T13:49:51Z) - Agree to Disagree: Diversity through Disagreement for Better
Transferability [54.308327969778155]
本稿では,D-BAT(Diversity-By-dis-Agreement Training)を提案する。
我々は、D-BATが一般化された相違の概念から自然に現れることを示す。
論文 参考訳(メタデータ) (2022-02-09T12:03:02Z) - A Systematic Study of Bias Amplification [16.245943270343343]
近年の研究では、機械学習モデルによる予測は、トレーニングデータに存在するバイアスを増幅することができることが示唆されている。
我々は、バイアス増幅の発生時期と発生状況について、初めて体系的に制御された研究を行う。
論文 参考訳(メタデータ) (2022-01-27T18:04:24Z) - General Greedy De-bias Learning [163.65789778416172]
本稿では,関数空間における勾配降下のような偏りのあるモデルとベースモデルを優雅に訓練する一般グリーディ・デバイアス学習フレームワーク(GGD)を提案する。
GGDは、事前知識を持つタスク固有バイアスモデルと、事前知識を持たない自己アンサンブルバイアスモデルの両方の設定の下で、より堅牢なベースモデルを学ぶことができる。
論文 参考訳(メタデータ) (2021-12-20T14:47:32Z) - Self-Damaging Contrastive Learning [92.34124578823977]
ラベルのないデータは一般に不均衡であり、長い尾の分布を示す。
本稿では,クラスを知らずに表現学習を自動的にバランスをとるための,自己学習コントラスト学習という原則的枠組みを提案する。
実験の結果,SDCLRは全体としての精度だけでなく,バランス性も著しく向上することがわかった。
論文 参考訳(メタデータ) (2021-06-06T00:04:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。