論文の概要: Characterizing the robustness of Bayesian adaptive experimental designs
to active learning bias
- arxiv url: http://arxiv.org/abs/2205.13698v1
- Date: Fri, 27 May 2022 01:23:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-30 14:39:14.852376
- Title: Characterizing the robustness of Bayesian adaptive experimental designs
to active learning bias
- Title(参考訳): ベイズ適応実験設計のロバスト性に着目したアクティブラーニングバイアス
- Authors: Sabina J. Sloman, Daniel M. Oppenheimer, Stephen B. Broomell and Cosma
Rohilla Shalizi
- Abstract要約: 本研究では,学習バイアスがベイズ適応型実験設計に悪影響を及ぼすことを示す。
我々は,誤識別に関する情報理論的な尺度を開発し,誤識別の悪さが学習バイアスの重大化を示唆していることを示す。
- 参考スコア(独自算出の注目度): 3.1351527202068445
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Bayesian adaptive experimental design is a form of active learning, which
chooses samples to maximize the information they give about uncertain
parameters. Prior work has shown that other forms of active learning can suffer
from active learning bias, where unrepresentative sampling leads to
inconsistent parameter estimates. We show that active learning bias can also
afflict Bayesian adaptive experimental design, depending on model
misspecification. We develop an information-theoretic measure of
misspecification, and show that worse misspecification implies more severe
active learning bias. At the same time, model classes incorporating more
"noise" - i.e., specifying higher inherent variance in observations - suffer
less from active learning bias, because their predictive distributions are
likely to overlap more with the true distribution. Finally, we show how these
insights apply to a (simulated) preference learning experiment.
- Abstract(参考訳): ベイズ適応型実験設計はアクティブラーニングの一形態であり、不確実なパラメータに関する情報を最大化するためにサンプルを選択する。
これまでの研究では、他のタイプのアクティブラーニングがアクティブラーニングバイアスに悩まされることが示されており、非表現的なサンプリングは不整合パラメータ推定につながる。
また, 学習バイアスがベイズ適応型実験設計に悪影響を及ぼすことを示す。
我々は,誤特定に関する情報理論的な尺度を開発し,誤特定がより深刻な学習バイアスをもたらすことを示した。
同時に、より"ノイズ"を組み込んだモデルクラス – すなわち、観察に固有のばらつきを高く指定する – は、その予測分布が真の分布とより重なる可能性があるため、アクティブな学習バイアスに苦しむことが少なくなる。
最後に、これらの洞察が(シミュレーションされた)選好学習実験にどのように適用されるかを示す。
関連論文リスト
- Data Attribution for Diffusion Models: Timestep-induced Bias in Influence Estimation [53.27596811146316]
拡散モデルは、以前の文脈における瞬間的な入出力関係ではなく、一連のタイムステップで操作する。
本稿では、この時間的ダイナミクスを取り入れた拡散トラクInについて、サンプルの損失勾配ノルムが時間ステップに大きく依存していることを確認する。
そこで我々はDiffusion-ReTracを再正規化適応として導入し、興味のあるサンプルを対象にしたトレーニングサンプルの検索を可能にする。
論文 参考訳(メタデータ) (2024-01-17T07:58:18Z) - Improving Bias Mitigation through Bias Experts in Natural Language
Understanding [10.363406065066538]
補助モデルと主モデルの間に二項分類器を導入するデバイアス化フレームワークを提案する。
提案手法は補助モデルのバイアス識別能力を向上させる。
論文 参考訳(メタデータ) (2023-12-06T16:15:00Z) - Stubborn Lexical Bias in Data and Models [50.79738900885665]
我々は、データに基づいてトレーニングされたモデルに、データのスプリアスパターンが現れるかどうかを調べるために、新しい統計手法を用いる。
トレーニングデータに*reweight*に最適化アプローチを適用し、数千のスプリアス相関を低減します。
驚くべきことに、この方法ではトレーニングデータの語彙バイアスを低減できますが、トレーニングされたモデルで対応するバイアスの強い証拠がまだ見つかっていません。
論文 参考訳(メタデータ) (2023-06-03T20:12:27Z) - Even Small Correlation and Diversity Shifts Pose Dataset-Bias Issues [19.4921353136871]
実験サンプルがトレーニング中に見つからないパターンを示す場合の多様性シフトと、テストデータが観察された不変性と急激な特徴の異なる相関を示す場合の相関シフトの2種類について検討した。
そこで我々は,両タイプのシフトをデータセットを用いて分析し,制御可能な方法で共存する統合プロトコルを提案する。
論文 参考訳(メタデータ) (2023-05-09T23:40:23Z) - Delving into Identify-Emphasize Paradigm for Combating Unknown Bias [52.76758938921129]
同定精度を高めるため,有効バイアス強調スコアリング法(ECS)を提案する。
また, マイニングされたバイアスアライメントとバイアスコンプリケート試料のコントリビューションのバランスをとるために, 勾配アライメント(GA)を提案する。
様々な環境で複数のデータセットで実験を行い、提案されたソリューションが未知のバイアスの影響を軽減することを実証した。
論文 参考訳(メタデータ) (2023-02-22T14:50:24Z) - Feature-Level Debiased Natural Language Understanding [86.8751772146264]
既存の自然言語理解(NLU)モデルは、特定のデータセットで高いパフォーマンスを達成するために、データセットバイアスに依存することが多い。
本稿では, バイアスの潜在特性を緩和し, バイアスの動的性質を無視するために, DCT(Debiasing contrastive learning)を提案する。
DCTは、ディストリビューション内のパフォーマンスを維持しながら、アウトオブディストリビューションデータセットの最先端のベースラインを上回ります。
論文 参考訳(メタデータ) (2022-12-11T06:16:14Z) - Agree to Disagree: Diversity through Disagreement for Better
Transferability [54.308327969778155]
本稿では,D-BAT(Diversity-By-dis-Agreement Training)を提案する。
我々は、D-BATが一般化された相違の概念から自然に現れることを示す。
論文 参考訳(メタデータ) (2022-02-09T12:03:02Z) - Bayesian analysis of the prevalence bias: learning and predicting from
imbalanced data [10.659348599372944]
本稿では,モデル学習のための理論的および計算的枠組みと,有病率バイアスの存在下での予測について述べる。
原則的なトレーニング損失の代替として,要約曲線から操作点を選択することで,テスト時の手順を補完するものだ。
バックプロパゲーションを用いた(深い)学習の現在のパラダイムにシームレスに統合され、ベイズモデルと自然に結合する。
論文 参考訳(メタデータ) (2021-07-31T14:36:33Z) - Understanding Classifier Mistakes with Generative Models [88.20470690631372]
ディープニューラルネットワークは教師付き学習タスクに有効であるが、脆弱であることが示されている。
本稿では、生成モデルを利用して、分類器が一般化に失敗するインスタンスを特定し、特徴付ける。
我々のアプローチは、トレーニングセットのクラスラベルに依存しないため、半教師付きでトレーニングされたモデルに適用できる。
論文 参考訳(メタデータ) (2020-10-05T22:13:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。