論文の概要: Are All Spurious Features in Natural Language Alike? An Analysis through
a Causal Lens
- arxiv url: http://arxiv.org/abs/2210.14011v1
- Date: Tue, 25 Oct 2022 13:31:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-26 13:27:55.756454
- Title: Are All Spurious Features in Natural Language Alike? An Analysis through
a Causal Lens
- Title(参考訳): 自然言語の特徴はすべて似ているか?
因果レンズによる分析
- Authors: Nitish Joshi, Xiang Pan, He He
- Abstract要約: NLPでは、望ましくない特徴-ラベル相関を非公式に表現するために「スプリアス相関」という用語が用いられてきた。
我々は、因果モデルと必要と十分性の確率を用いて、この区別を定式化する。
- 参考スコア(独自算出の注目度): 23.41097494945868
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The term `spurious correlations' has been used in NLP to informally denote
any undesirable feature-label correlations. However, a correlation can be
undesirable because (i) the feature is irrelevant to the label (e.g.
punctuation in a review), or (ii) the feature's effect on the label depends on
the context (e.g. negation words in a review), which is ubiquitous in language
tasks. In case (i), we want the model to be invariant to the feature, which is
neither necessary nor sufficient for prediction. But in case (ii), even an
ideal model (e.g. humans) must rely on the feature, since it is necessary (but
not sufficient) for prediction. Therefore, a more fine-grained treatment of
spurious features is needed to specify the desired model behavior. We formalize
this distinction using a causal model and probabilities of necessity and
sufficiency, which delineates the causal relations between a feature and a
label. We then show that this distinction helps explain results of existing
debiasing methods on different spurious features, and demystifies surprising
results such as the encoding of spurious features in model representations
after debiasing.
- Abstract(参考訳): spurious correlations' という用語は nlp において、望ましくない特徴ラベル相関を非公式に表すために用いられてきた。
しかし、相関は望ましくない。
(i)その機能はラベル(例えば、レビュー中の句読点)とは無関係である、又は
(ii)ラベルに対する特徴の効果は、言語タスクにおいてユビキタスである文脈(例えば、レビュー中の否定語)に依存する。
場合
i) モデルが機能に不変であることを望んでおり、それは予測に必要でも十分でもない。
しかし、その場合
(ii) 理想的なモデル(例えば人間)でさえ、予測には必要である(しかし十分ではない)ため、特徴に頼らなければならない。
したがって,所望のモデル動作を特定するためには,よりきめ細かなスプリアス処理が必要である。
我々は,特徴とラベルの因果関係を記述した因果モデルと,必要と十分性の確率を用いて,この区別を定式化する。
そして, この区別は, 異なる刺激的特徴に対する既存脱バイアス法の結果を説明するのに役立つことを示し, 脱バイアス後のモデル表現における刺激的特徴の符号化などの驚くべき結果をデミステレーションする。
関連論文リスト
- Towards Robust Text Classification: Mitigating Spurious Correlations with Causal Learning [2.7813683000222653]
本稿では,因果関係へのモデル依存を軽減するために,因果相関ロバスト (CCR) を提案する。
CCRは、逆確率重み付け(IPW)損失関数とともに、反ファクト推論に基づく因果的特徴選択法を統合する。
グループラベルを持たないメソッド間でのCCRの最先端性能を示し、場合によってはグループラベルを利用するモデルと競合する。
論文 参考訳(メタデータ) (2024-11-01T21:29:07Z) - Fairness-Aware Streaming Feature Selection with Causal Graphs [10.644488289941021]
Streaming Feature Selection with Causal Fairness build causal graphs egocentric to predict label and protected feature。
ストリーミング機能研究で広く使われている5つのデータセットに対して、SFCFをベンチマークする。
論文 参考訳(メタデータ) (2024-08-17T00:41:02Z) - Quantifying the Sensitivity of Inverse Reinforcement Learning to
Misspecification [72.08225446179783]
逆強化学習は、エージェントの行動からエージェントの好みを推測することを目的としている。
これを行うには、$pi$が$R$とどのように関係しているかの振る舞いモデルが必要です。
我々は、IRL問題が行動モデルの不特定性にどれほど敏感であるかを分析する。
論文 参考訳(メタデータ) (2024-03-11T16:09:39Z) - Causal Feature Selection via Transfer Entropy [59.999594949050596]
因果発見は、観察データによる特徴間の因果関係を特定することを目的としている。
本稿では,前向きと後向きの機能選択に依存する新たな因果的特徴選択手法を提案する。
精度および有限サンプルの場合の回帰誤差と分類誤差について理論的に保証する。
論文 参考訳(メタデータ) (2023-10-17T08:04:45Z) - Stubborn Lexical Bias in Data and Models [50.79738900885665]
我々は、データに基づいてトレーニングされたモデルに、データのスプリアスパターンが現れるかどうかを調べるために、新しい統計手法を用いる。
トレーニングデータに*reweight*に最適化アプローチを適用し、数千のスプリアス相関を低減します。
驚くべきことに、この方法ではトレーニングデータの語彙バイアスを低減できますが、トレーニングされたモデルで対応するバイアスの強い証拠がまだ見つかっていません。
論文 参考訳(メタデータ) (2023-06-03T20:12:27Z) - Uninformative Input Features and Counterfactual Invariance: Two
Perspectives on Spurious Correlations in Natural Language [19.416033815407804]
Spurious correlations is a threat to the trustworthiness of natural language processing systems。
本稿では,PCFGにおける特徴ラベル相関を生じさせる3つの異なる条件を解析する。
入力特徴はラベルと非常に稀な状況において個別に相関するので、真の堅牢性を脅かす刺激的な相関を識別するためにドメイン知識を適用する必要がある。
論文 参考訳(メタデータ) (2022-04-09T14:46:39Z) - Counterfactual Invariance to Spurious Correlations: Why and How to Pass
Stress Tests [87.60900567941428]
素早い相関」とは、アナリストが重要とすべきでないと考える入力データのある側面に対するモデルの依存である。
機械学習では、これらにはノウ・イ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ・ウ」という特徴がある。
因果推論ツールを用いたストレステストについて検討した。
論文 参考訳(メタデータ) (2021-05-31T14:39:38Z) - Latent Causal Invariant Model [128.7508609492542]
現在の教師付き学習は、データ適合プロセス中に急激な相関を学習することができる。
因果予測を求める潜在因果不変モデル(LaCIM)を提案する。
論文 参考訳(メタデータ) (2020-11-04T10:00:27Z) - Learning Causal Models Online [103.87959747047158]
予測モデルは、予測を行うためにデータの急激な相関に依存することができる。
強い一般化を達成するための一つの解決策は、モデルに因果構造を組み込むことである。
本稿では,突発的特徴を継続的に検出・除去するオンラインアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-12T20:49:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。