論文の概要: Are LLMs Biased Like Humans? Causal Reasoning as a Function of Prior Knowledge, Irrelevant Information, and Reasoning Budget
- arxiv url: http://arxiv.org/abs/2602.02983v1
- Date: Tue, 03 Feb 2026 01:43:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-04 18:37:15.179839
- Title: Are LLMs Biased Like Humans? Causal Reasoning as a Function of Prior Knowledge, Irrelevant Information, and Reasoning Budget
- Title(参考訳): LLMは人間に似ていますか? 事前知識・無関係情報・推論予算の機能としての因果推論
- Authors: Hanna M. Dettki, Charley M. Wu, Bob Rehder,
- Abstract要約: 大きな言語モデル (LLM) は、因果推論が重要な分野において、ますます使われている。
我々は,コライダー構造で定式化された11の因果判定課題に対して,一致した人体ベースラインに対して20以上のLSMをベンチマークした。
ほとんどのLSMは、確率判断において未解決の潜伏要因を考慮に入れているように見える人間よりも、ルールライクな推論戦略を示す。
- 参考スコア(独自算出の注目度): 0.9558392439655014
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) are increasingly used in domains where causal reasoning matters, yet it remains unclear whether their judgments reflect normative causal computation, human-like shortcuts, or brittle pattern matching. We benchmark 20+ LLMs against a matched human baseline on 11 causal judgment tasks formalized by a collider structure ($C_1 \!\rightarrow\! E\! \leftarrow \!C_2$). We find that a small interpretable model compresses LLMs' causal judgments well and that most LLMs exhibit more rule-like reasoning strategies than humans who seem to account for unmentioned latent factors in their probability judgments. Furthermore, most LLMs do not mirror the characteristic human collider biases of weak explaining away and Markov violations. We probe LLMs' causal judgment robustness under (i) semantic abstraction and (ii) prompt overloading (injecting irrelevant text), and find that chain-of-thought (CoT) increases robustness for many LLMs. Together, this divergence suggests LLMs can complement humans when known biases are undesirable, but their rule-like reasoning may break down when uncertainty is intrinsic -- highlighting the need to characterize LLM reasoning strategies for safe, effective deployment.
- Abstract(参考訳): 大きな言語モデル (LLM) は因果推論が問題となる領域ではますます使われているが、それらの判断が規範的因果計算、人間のようなショートカット、不安定なパターンマッチングを反映しているかどうかは不明である。
我々は,コライダー構造により定式化された11の因果判定課題(C_1 \!
きゃーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーーー
E!
\leftarrow \!
C_2$)。
その結果, LLM の因果判断は小さい解釈可能なモデルで十分圧縮され, ほとんどの LLM は, 確率判断において未進行の潜伏因子を考慮に入れているように見える人間よりも, ルールライクな推論戦略を示すことがわかった。
さらに、ほとんどのLLMは、弱い説明とマルコフの違反という特徴的コライダーバイアスを反映していない。
LLMの因果判断のロバスト性について検討する
(i)意味的抽象・抽象
(II) 過剰負荷(無関係テキストの注入) を早送りし, チェーン・オブ・シント(CoT) が多くのLCMに対してロバスト性を高めることを確認する。
この相違は、LLMが既知のバイアスが望ましくない場合に人間を補完できることを示しているが、そのルールのような推論は、不確実性が本質的な場合に崩壊する可能性があり、安全で効果的なデプロイメントのためのLSM推論戦略を特徴づける必要性を強調している。
関連論文リスト
- Beyond Prompt-Induced Lies: Investigating LLM Deception on Benign Prompts [79.1081247754018]
大規模言語モデル(LLM)は、推論、計画、意思決定のタスクに広くデプロイされている。
そこで我々は, 接触探索質問(CSQ)に基づく枠組みを提案し, 騙しの可能性を定量化する。
論文 参考訳(メタデータ) (2025-08-08T14:46:35Z) - Unveiling Causal Reasoning in Large Language Models: Reality or Mirage? [62.17959154852391]
因果推論能力は、強力な人工知能に向けて大きな言語モデルを進める上で重要である。
大規模言語モデル (LLM) は, 浅い (レベル-1) 因果推論しか実行できないことを示す。
本稿では,LLMの因果推論プロセスに一般知識と目標指向のプロンプトを組み込んだG2-Reasonerを提案する。
論文 参考訳(メタデータ) (2025-06-26T13:11:01Z) - BiasCause: Evaluate Socially Biased Causal Reasoning of Large Language Models [8.368810576899556]
大規模言語モデル(LLM)は、特定のセンシティブなグループに対する社会的バイアスを含むコンテンツを生成する。
本稿では, LLMの因果推論過程を評価するために, 社会的偏見を提起する質問に回答する。
論文 参考訳(メタデータ) (2025-04-08T20:00:14Z) - Potential and Limitations of LLMs in Capturing Structured Semantics: A Case Study on SRL [78.80673954827773]
大きな言語モデル(LLM)は、言語理解を高め、解釈可能性を改善し、バイアスを減らすために構造化セマンティクスをキャプチャする上で重要な役割を果たす。
セマンティック・ロール・ラベルリング(SRL)を,構造化意味論を抽出するLLMの能力を探るための基本課題として用いることを提案する。
LLMは実際にセマンティック構造をキャプチャすることができ、スケールアップは常にポテンシャルを反映するわけではない。
エラーのかなりの重複は、LLMと訓練されていない人間の両方によって行われ、全てのエラーの約30%を占めることに私たちは驚いています。
論文 参考訳(メタデータ) (2024-05-10T11:44:05Z) - CausalBench: A Comprehensive Benchmark for Causal Learning Capability of LLMs [27.362012903540492]
因果関係を理解する能力は、大言語モデル(LLM)の出力説明と反実的推論の能力に大きな影響を及ぼす。
因果関係を理解する能力は、大言語モデル(LLM)の出力説明と反実的推論の能力に大きな影響を及ぼす。
論文 参考訳(メタデータ) (2024-04-09T14:40:08Z) - Conditional and Modal Reasoning in Large Language Models [1.999925939110439]
我々は条件やモーダルを含む推論パターンに焦点を当てる。
私たちがテストしたすべてのLLMは、条件やモダルでいくつかの基本的な間違いを犯しました。
最高のLCMでさえ、モーダル推論において基本的な誤りを犯す。
論文 参考訳(メタデータ) (2024-01-30T16:56:54Z) - CLadder: Assessing Causal Reasoning in Language Models [82.8719238178569]
我々は,大言語モデル (LLM) が因果関係をコヒーレントに説明できるかどうかを検討する。
ユデア・パールらによって仮定された「因果推論エンジン」にインスパイアされた、自然言語における因果推論という新たなNLPタスクを提案する。
論文 参考訳(メタデータ) (2023-12-07T15:12:12Z) - Causal Reasoning and Large Language Models: Opening a New Frontier for Causality [29.433401785920065]
大規模言語モデル(LLM)は、高い確率で因果引数を生成することができる。
LLMは人間のドメインの専門家によって因果解析のセットアップの労力を節約するために使われる。
論文 参考訳(メタデータ) (2023-04-28T19:00:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。