論文の概要: John praised Mary because he? Implicit Causality Bias and Its
Interaction with Explicit Cues in LMs
- arxiv url: http://arxiv.org/abs/2106.01060v1
- Date: Wed, 2 Jun 2021 10:26:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-04 04:10:56.758114
- Title: John praised Mary because he? Implicit Causality Bias and Its
Interaction with Explicit Cues in LMs
- Title(参考訳): ジョンはメアリーを褒めたの?
LMにおける難因性バイアスと明示的キューとの相互作用
- Authors: Yova Kementchedjhieva, Mark Anderson and Anders S{\o}gaard
- Abstract要約: 事前学習された言語モデルがICバイアスを符号化し、推論時に利用するかどうかを検討する。
主節の動詞に付随する矛盾したICバイアスは、人間の処理の遅れにつながる。
- 参考スコア(独自算出の注目度): 7.623002328386316
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Some interpersonal verbs can implicitly attribute causality to either their
subject or their object and are therefore said to carry an implicit causality
(IC) bias. Through this bias, causal links can be inferred from a narrative,
aiding language comprehension. We investigate whether pre-trained language
models (PLMs) encode IC bias and use it at inference time. We find that to be
the case, albeit to different degrees, for three distinct PLM architectures.
However, causes do not always need to be implicit -- when a cause is explicitly
stated in a subordinate clause, an incongruent IC bias associated with the verb
in the main clause leads to a delay in human processing. We hypothesize that
the temporary challenge humans face in integrating the two contradicting
signals, one from the lexical semantics of the verb, one from the
sentence-level semantics, would be reflected in higher error rates for models
on tasks dependent on causal links. The results of our study lend support to
this hypothesis, suggesting that PLMs tend to prioritize lexical patterns over
higher-order signals.
- Abstract(参考訳): 一部の対人動詞は、因果関係を主題または対象に暗黙的に関連付けることができ、従って暗黙の因果性(IC)バイアスを持つとされる。
このバイアスにより、因果関係は物語から推論され、言語理解を支援する。
我々は,事前学習言語モデル(PLM)がICバイアスを符号化し,推論時に利用するかどうかを検討する。
3つの異なるPLMアーキテクチャでは、異なる度合いではあるものの、そうであることがわかる。
しかし、因果関係は必ずしも暗黙的である必要はなく、従属節で明示された原因がある場合、主節の動詞に付随する矛盾したICバイアスが人間の処理の遅れにつながる。
動詞の語彙意味論から,文レベルの意味論から,2つの矛盾する信号を統合する際に人間が直面する一時的な課題は,因果関係に依存するタスクのモデルに対する高い誤り率に反映されると仮定した。
以上の結果から,PLMは高次信号よりも語彙パターンを優先する傾向が示唆された。
関連論文リスト
- Failure Modes of LLMs for Causal Reasoning on Narratives [51.19592551510628]
本研究では,大言語モデル(LLM)の因果推論能力について,物語から因果関係を推定する代表的な問題から検討する。
最新の言語モデルでさえ、物語の提示とパラメトリック知識の両方において、信頼できないショートカットに依存していることがわかった。
論文 参考訳(メタデータ) (2024-10-31T12:48:58Z) - Probing Causality Manipulation of Large Language Models [12.46951388060595]
大規模言語モデル(LLM)は、因果関係の問題を含む自然言語処理に様々な能力を示している。
本稿では、モデルに異なるショートカットを提供し、行動を観察し、因果操作を階層的に探索する新しいアプローチを提案する。
論文 参考訳(メタデータ) (2024-08-26T16:00:41Z) - CLadder: Assessing Causal Reasoning in Language Models [82.8719238178569]
我々は,大言語モデル (LLM) が因果関係をコヒーレントに説明できるかどうかを検討する。
ユデア・パールらによって仮定された「因果推論エンジン」にインスパイアされた、自然言語における因果推論という新たなNLPタスクを提案する。
論文 参考訳(メタデータ) (2023-12-07T15:12:12Z) - What Do Llamas Really Think? Revealing Preference Biases in Language
Model Representations [62.91799637259657]
大規模言語モデル(LLMs)は、応答を辞退しても、社会的な偏見を示すか?
本研究は,文脈的埋め込みを探索し,このバイアスが潜在表現にエンコードされているかどうかを探索することによって検討する。
単語の隠れベクトルからLLMの単語ペア選好を予測するロジスティックなBradley-Terryプローブを提案する。
論文 参考訳(メタデータ) (2023-11-30T18:53:13Z) - Deceptive Semantic Shortcuts on Reasoning Chains: How Far Can Models Go without Hallucination? [73.454943870226]
本研究はセマンティックアソシエーションによって誘発される特定の種類の幻覚の研究である。
この現象を定量化するために,EureQAと呼ばれる新しい探索手法とベンチマークを提案する。
論文 参考訳(メタデータ) (2023-11-16T09:27:36Z) - Implicit Chain of Thought Reasoning via Knowledge Distillation [58.80851216530288]
思考推論ステップの連鎖を明示的に生成する代わりに、言語モデルの内部の隠れ状態を使用して暗黙の推論を行います。
このアプローチにより、明示的にチェーン・オブ・シントなしでは解決不可能なタスクを、非チェーン・オブ・シントに匹敵する速度で解決できることが分かりました。
論文 参考訳(メタデータ) (2023-11-02T17:59:49Z) - Implicit causality in GPT-2: a case study [2.6195600317605394]
本稿では,言語モデル(GPT-2)が文完成作業における暗黙の因果関係に関する母語話者の直感を捉えることができる範囲について検討する。
まず、先行結果(主語または目的語のいずれかと一致した代名詞の低次値を示す)を再現し、その上で、モデル性能に対する性別と動詞の頻度の影響について検討する。
また,モデルが生み出す強迫観念や反響に偏らされるのを避ける手法も開発した。
論文 参考訳(メタデータ) (2022-12-08T15:42:38Z) - Interactive Model with Structural Loss for Language-based Abductive
Reasoning [36.02450824915494]
帰納的自然言語推論タスク(alpha$NLI)は、原因と事象の間の最も明確な説明を推測するために提案される。
我々はこの新モデルを$alpha$NLI: Interactive Model with Structure Loss (IMSL) と命名する。
IMSL は RoBERTa-large Pretrained model で最高性能を達成し,ACC と AUC はそれぞれ約1%,AUC は5% 向上した。
論文 参考訳(メタデータ) (2021-12-01T05:21:07Z) - Counterfactual VQA: A Cause-Effect Look at Language Bias [117.84189187160005]
VQAモデルは、ショートカットとして言語バイアスに依存し、視覚と言語の両方からマルチモーダルな知識を十分に学ばない傾向にある。
本稿では,質問に対する直接的な因果的影響として,言語バイアスを捉えることのできる,新たな反事実推論フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-08T01:49:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。