論文の概要: Stubborn Lexical Bias in Data and Models
- arxiv url: http://arxiv.org/abs/2306.02190v1
- Date: Sat, 3 Jun 2023 20:12:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-06 19:34:49.078186
- Title: Stubborn Lexical Bias in Data and Models
- Title(参考訳): データとモデルにおける頑固な語彙バイアス
- Authors: Sofia Serrano, Jesse Dodge, Noah A. Smith
- Abstract要約: 我々は、データに基づいてトレーニングされたモデルに、データのスプリアスパターンが現れるかどうかを調べるために、新しい統計手法を用いる。
トレーニングデータに*reweight*に最適化アプローチを適用し、数千のスプリアス相関を低減します。
驚くべきことに、この方法ではトレーニングデータの語彙バイアスを低減できますが、トレーニングされたモデルで対応するバイアスの強い証拠がまだ見つかっていません。
- 参考スコア(独自算出の注目度): 50.79738900885665
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In NLP, recent work has seen increased focus on spurious correlations between
various features and labels in training data, and how these influence model
behavior. However, the presence and effect of such correlations are typically
examined feature by feature. We investigate the cumulative impact on a model of
many such intersecting features. Using a new statistical method, we examine
whether such spurious patterns in data appear in models trained on the data. We
select two tasks -- natural language inference and duplicate-question detection
-- for which any unigram feature on its own should ideally be uninformative,
which gives us a large pool of automatically extracted features with which to
experiment. The large size of this pool allows us to investigate the
intersection of features spuriously associated with (potentially different)
labels. We then apply an optimization approach to *reweight* the training data,
reducing thousands of spurious correlations, and examine how doing so affects
models trained on the reweighted data. Surprisingly, though this method can
successfully reduce lexical biases in the training data, we still find strong
evidence of corresponding bias in the trained models, including worsened bias
for slightly more complex features (bigrams). We close with discussion about
the implications of our results on what it means to "debias" training data, and
how issues of data quality can affect model bias.
- Abstract(参考訳): NLPにおいて、最近の研究は、トレーニングデータにおける様々な特徴とラベル間の刺激的な相関、およびこれらのモデル行動がどのように影響するかに焦点が当てられている。
しかし、このような相関関係の存在と効果は、典型的には特徴によって検討される。
交差する多くの特徴のモデルに対する累積的影響について検討する。
新たな統計的手法を用いて,データにトレーニングされたモデルにおいて,データのスプリアスパターンが出現するかどうかを検証した。
私たちは、自然言語推論と重複質問検出という2つのタスクを選択しました。
このプールの大きさが大きいため、(潜在的に異なる)ラベルと重なり合う特徴の交点を調査できます。
次に、トレーニングデータの*reweight*に最適化アプローチを適用し、数千のスプリットな相関を減らし、再重み付けされたデータに基づいてトレーニングされたモデルにどのように影響するかを調べる。
驚くべきことに、この方法はトレーニングデータにおける語彙バイアスをうまく低減することができるが、トレーニングされたモデルで対応するバイアスの強い証拠がまだ見出され、さらに複雑な特徴(ビグラム)に対するバイアスが悪化している。
データを“デバイアス”することの意味や、データ品質の問題がモデルバイアスにどのように影響するか、という結果の意味について、私たちは議論を締めくくった。
関連論文リスト
- Measuring and Improving Attentiveness to Partial Inputs with Counterfactuals [91.59906995214209]
我々は,新しい評価手法であるCAT(Facterfactual Attentiveness Test)を提案する。
CATは、入力の一部を別の例から別の例に置き換えることで、予測を変更する注意深いモデルを期待することで、反事実を使用する。
実験データの精度が向上する一方, GPT3 は実演回数の増加により注意力の低下がみられた。
論文 参考訳(メタデータ) (2023-11-16T06:27:35Z) - Even Small Correlation and Diversity Shifts Pose Dataset-Bias Issues [19.4921353136871]
実験サンプルがトレーニング中に見つからないパターンを示す場合の多様性シフトと、テストデータが観察された不変性と急激な特徴の異なる相関を示す場合の相関シフトの2種類について検討した。
そこで我々は,両タイプのシフトをデータセットを用いて分析し,制御可能な方法で共存する統合プロトコルを提案する。
論文 参考訳(メタデータ) (2023-05-09T23:40:23Z) - Feature-Level Debiased Natural Language Understanding [86.8751772146264]
既存の自然言語理解(NLU)モデルは、特定のデータセットで高いパフォーマンスを達成するために、データセットバイアスに依存することが多い。
本稿では, バイアスの潜在特性を緩和し, バイアスの動的性質を無視するために, DCT(Debiasing contrastive learning)を提案する。
DCTは、ディストリビューション内のパフォーマンスを維持しながら、アウトオブディストリビューションデータセットの最先端のベースラインを上回ります。
論文 参考訳(メタデータ) (2022-12-11T06:16:14Z) - Decorrelate Irrelevant, Purify Relevant: Overcome Textual Spurious
Correlations from a Feature Perspective [47.10907370311025]
自然言語理解(NLU)モデルは、散発的な相関(すなわちデータセットバイアス)に頼る傾向があり、分布内データセットでは高い性能を得るが、分布外データセットでは性能が劣る。
既存のデバイアス法のほとんどは、バイアスのある特徴を持つサンプルを識別し、弱めていることが多い。
サンプルの重み付けは、サンプルの偏りのない部分から学習する際のモデルを妨げる。
本稿では,特徴空間の観点から,微粒な方法でスプリアス相関を除去することを提案する。
論文 参考訳(メタデータ) (2022-02-16T13:23:14Z) - Learning from others' mistakes: Avoiding dataset biases without modeling
them [111.17078939377313]
最先端自然言語処理(NLP)モデルは、意図したタスクをターゲットとする機能ではなく、データセットのバイアスや表面形状の相関をモデル化することを学ぶことが多い。
これまでの研究は、バイアスに関する知識が利用できる場合に、これらの問題を回避するための効果的な方法を示してきた。
本稿では,これらの問題点を無視する学習モデルについて述べる。
論文 参考訳(メタデータ) (2020-12-02T16:10:54Z) - Learning to Model and Ignore Dataset Bias with Mixed Capacity Ensembles [66.15398165275926]
本稿では,データセット固有のパターンを自動的に検出・無視する手法を提案する。
我々の方法は、より高い容量モデルでアンサンブルで低容量モデルを訓練する。
視覚的質問応答データセットの10ポイントゲインを含む,すべての設定の改善を示す。
論文 参考訳(メタデータ) (2020-11-07T22:20:03Z) - Debiasing Skin Lesion Datasets and Models? Not So Fast [17.668005682385175]
データリスク学習のバイアスから学んだモデルは、同じデータから。
モデルが現実世界の状況では見つからない急激な相関関係を学習すると、医療上の決定などの重要なタスクへの展開は破滅的なものになる。
将来有望な研究を示唆する興味深い結果にもかかわらず、現在の脱バイアス法は、スキン・レジオンモデルのバイアス問題を解決する準備ができていないことが判明した。
論文 参考訳(メタデータ) (2020-04-23T21:07:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。