論文の概要: Addressing Bias in Active Learning with Depth Uncertainty Networks... or
Not
- arxiv url: http://arxiv.org/abs/2112.06926v1
- Date: Mon, 13 Dec 2021 17:08:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-16 08:02:16.619992
- Title: Addressing Bias in Active Learning with Depth Uncertainty Networks... or
Not
- Title(参考訳): 奥行き不確実性ネットワークを用いたアクティブラーニングにおけるバイアス対策
- Authors: Chelsea Murray, James U. Allingham, Javier Antor\'an, Jos\'e Miguel
Hern\'andez-Lobato
- Abstract要約: アクティブな学習バイアスの補正は、下流のパフォーマンスを改善する。
これは、アクティブな学習バイアスを相殺する"過剰なバイアス"によるものです。
我々は、深度不確実性ネットワークが低い過度な体制で運用されていることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Farquhar et al. [2021] show that correcting for active learning bias with
underparameterised models leads to improved downstream performance. For
overparameterised models such as NNs, however, correction leads either to
decreased or unchanged performance. They suggest that this is due to an
"overfitting bias" which offsets the active learning bias. We show that depth
uncertainty networks operate in a low overfitting regime, much like
underparameterised models. They should therefore see an increase in performance
with bias correction. Surprisingly, they do not. We propose that this negative
result, as well as the results Farquhar et al. [2021], can be explained via the
lens of the bias-variance decomposition of generalisation error.
- Abstract(参考訳): Farquharら。
2021]は,低パラメータモデルによるアクティブ学習バイアスの修正が下流性能の向上につながることを示した。
しかし、nnsのような過パラメータモデルの場合、補正は性能を低下させるか変化させる。
これは、アクティブな学習バイアスを相殺する"過剰なバイアス"によるものだ、と彼らは示唆している。
深度不確実性ネットワークは、過度パラメータ化モデルのように、低過適合状態で動作することを示す。
したがって、バイアス補正によるパフォーマンスの向上が期待できる。
驚くことに、そうではない。
我々は、この否定的な結果と、Farquharらによる結果を提案する。
一般化誤差の偏差分解のレンズを通して[2021]を説明することができる。
関連論文リスト
- Improving Bias Mitigation through Bias Experts in Natural Language
Understanding [10.363406065066538]
補助モデルと主モデルの間に二項分類器を導入するデバイアス化フレームワークを提案する。
提案手法は補助モデルのバイアス識別能力を向上させる。
論文 参考訳(メタデータ) (2023-12-06T16:15:00Z) - Bias in Pruned Vision Models: In-Depth Analysis and Countermeasures [93.17009514112702]
ニューラルネットワークのパラメータのかなりの部分集合をゼロに設定するプルーニングは、モデル圧縮の最も一般的な方法の1つである。
この現象の既存の証拠にもかかわらず、ニューラルネットワークのプルーニングと誘導バイアスの関係はよく理解されていない。
論文 参考訳(メタデータ) (2023-04-25T07:42:06Z) - Feature-Level Debiased Natural Language Understanding [86.8751772146264]
既存の自然言語理解(NLU)モデルは、特定のデータセットで高いパフォーマンスを達成するために、データセットバイアスに依存することが多い。
本稿では, バイアスの潜在特性を緩和し, バイアスの動的性質を無視するために, DCT(Debiasing contrastive learning)を提案する。
DCTは、ディストリビューション内のパフォーマンスを維持しながら、アウトオブディストリビューションデータセットの最先端のベースラインを上回ります。
論文 参考訳(メタデータ) (2022-12-11T06:16:14Z) - Self-supervised debiasing using low rank regularization [59.84695042540525]
純粋な相関は、ディープニューラルネットワークの強いバイアスを引き起こし、一般化能力を損なう可能性がある。
ラベルのないサンプルと互換性のある自己監督型脱バイアスフレームワークを提案する。
注目すべきは,提案フレームワークが自己教師付き学習ベースラインの一般化性能を著しく向上させることである。
論文 参考訳(メタデータ) (2022-10-11T08:26:19Z) - Ensembling over Classifiers: a Bias-Variance Perspective [13.006468721874372]
Pfau (2013) による偏差分解の拡張の上に構築し, 分類器のアンサンブルの挙動に関する重要な知見を得る。
条件付き推定は必然的に既約誤差を生じさせることを示す。
経験的に、標準的なアンサンブルはバイアスを減少させ、この予期せぬ減少のために、分類器のアンサンブルがうまく機能するかもしれないという仮説を立てる。
論文 参考訳(メタデータ) (2022-06-21T17:46:35Z) - Cross Pairwise Ranking for Unbiased Item Recommendation [57.71258289870123]
我々はCPR(Cross Pairwise Ranking)という新しい学習パラダイムを開発する。
CPRは、露出メカニズムを知らずに不偏の推奨を達成する。
理論的には、この方法が学習に対するユーザ/イテムの適合性の影響を相殺することを証明する。
論文 参考訳(メタデータ) (2022-04-26T09:20:27Z) - Optimization Variance: Exploring Generalization Properties of DNNs [83.78477167211315]
ディープニューラルネットワーク(DNN)のテストエラーは、しばしば二重降下を示す。
そこで本研究では,モデル更新の多様性を測定するために,新しい測度である最適化分散(OV)を提案する。
論文 参考訳(メタデータ) (2021-06-03T09:34:17Z) - The Low-Rank Simplicity Bias in Deep Networks [46.79964271742486]
我々は、ディープネットワークが帰納的にバイアスを受けているという仮説を調査し、拡張する実験的な観察を行い、低い有効ランク埋め込みの解を見つける。
我々の主張は、実践的な学習パラダイム上の有限幅線形および非線形モデルに真であることを示すとともに、自然データ上では、これらがよく一般化される解であることを示す。
論文 参考訳(メタデータ) (2021-03-18T17:58:02Z) - Memorizing without overfitting: Bias, variance, and interpolation in
over-parameterized models [0.0]
バイアス分散トレードオフは教師あり学習における中心的な概念である。
現代のDeep Learningメソッドは、最先端のパフォーマンスを達成するために、このドグマを浮かび上がらせる。
論文 参考訳(メタデータ) (2020-10-26T22:31:04Z) - Mind the Trade-off: Debiasing NLU Models without Degrading the
In-distribution Performance [70.31427277842239]
信頼性正則化という新しいデバイアス化手法を導入する。
モデルがバイアスを悪用するのを防ぐと同時に、トレーニングのすべての例から学ぶのに十分なインセンティブを得られるようにします。
提案手法を3つのNLUタスクで評価し,前者とは対照的に,アウト・オブ・ディストリビューション・データセットの性能が向上することを示す。
論文 参考訳(メタデータ) (2020-05-01T11:22:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。