論文の概要: Do Large Language Models Reason Causally Like Us? Even Better?
- arxiv url: http://arxiv.org/abs/2502.10215v1
- Date: Fri, 14 Feb 2025 15:09:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-17 14:47:17.043308
- Title: Do Large Language Models Reason Causally Like Us? Even Better?
- Title(参考訳): 大型の言語モデルは、私たちのような因果関係を持つのか?
- Authors: Hanna M. Dettki, Brenden M. Lake, Charley M. Wu, Bob Rehder,
- Abstract要約: 大きな言語モデル(LLM)は、人間のようなテキストを生成する際、印象的な能力を示している。
我々は,コライダーグラフに基づくタスクを用いて,人間と4つのLDMの因果推論を比較した。
LLMは、モデル、コンテキスト、タスクに基づくアライメントシフトを伴って、人間のようなスペクトルから規範的推論へと因果関係を推論する。
- 参考スコア(独自算出の注目度): 7.749713014052951
- License:
- Abstract: Causal reasoning is a core component of intelligence. Large language models (LLMs) have shown impressive capabilities in generating human-like text, raising questions about whether their responses reflect true understanding or statistical patterns. We compared causal reasoning in humans and four LLMs using tasks based on collider graphs, rating the likelihood of a query variable occurring given evidence from other variables. We find that LLMs reason causally along a spectrum from human-like to normative inference, with alignment shifting based on model, context, and task. Overall, GPT-4o and Claude showed the most normative behavior, including "explaining away", whereas Gemini-Pro and GPT-3.5 did not. Although all agents deviated from the expected independence of causes - Claude the least - they exhibited strong associative reasoning and predictive inference when assessing the likelihood of the effect given its causes. These findings underscore the need to assess AI biases as they increasingly assist human decision-making.
- Abstract(参考訳): 因果推論は知性のコアコンポーネントである。
大きな言語モデル(LLM)は、人間のようなテキストを生成する際、顕著な能力を示し、その反応が真の理解や統計的パターンを反映しているかという疑問を提起している。
我々は,コライダーグラフに基づくタスクを用いて,人間の因果推論と4つのLSMを比較し,他の変数から証拠を得たクエリ変数の確率を評価した。
LLMは、モデル、コンテキスト、タスクに基づくアライメントシフトを伴って、人間のようなスペクトルから規範的推論へと因果関係を推論する。
全体として、GPT-4oとClaudeは最も規範的な行動を示しており、Gemini-ProとGPT-3.5は説明しなかった。
すべてのエージェントは、予想される原因の独立から逸脱したが、少なくとも、彼らは、その原因が与えられた影響の可能性を評価する際に、強い連想的推論と予測的推論を示した。
これらの発見は、人間の意思決定をますます支援するにつれて、AIバイアスを評価する必要性を浮き彫りにしている。
関連論文リスト
- Failure Modes of LLMs for Causal Reasoning on Narratives [51.19592551510628]
本研究では,大言語モデル(LLM)の因果推論能力について,物語から因果関係を推定する代表的な問題から検討する。
最新の言語モデルでさえ、物語の提示とパラメトリック知識の両方において、信頼できないショートカットに依存していることがわかった。
論文 参考訳(メタデータ) (2024-10-31T12:48:58Z) - Are UFOs Driving Innovation? The Illusion of Causality in Large Language Models [0.0]
本研究では,大規模言語モデルが実世界の環境において因果関係の錯覚を生じさせるかどうかを考察する。
GPT-4o-Mini, Claude-3.5-Sonnet, Gemini-1.5-Pro によるニュース見出しの評価と比較を行った。
その結果,Claude-3.5-Sonnetは相関因果錯覚の最小度を示すモデルであることがわかった。
論文 参考訳(メタデータ) (2024-10-15T15:20:49Z) - Hypothesizing Missing Causal Variables with LLMs [55.28678224020973]
我々は、入力が欠落変数を持つ部分因果グラフであるような新しいタスクを定式化し、出力は部分グラフを完成させるための欠落変数に関する仮説である。
原因と効果の間の媒介変数を仮説化するLLMの強い能力を示す。
また,オープンソースモデルの一部がGPT-4モデルより優れているという驚くべき結果も得られた。
論文 参考訳(メタデータ) (2024-09-04T10:37:44Z) - CELLO: Causal Evaluation of Large Vision-Language Models [9.928321287432365]
因果推論は人間の知性の基本であり、現実世界の環境における効果的な意思決定に不可欠である。
我々は,人間と物体の相互作用を含む因果関係の微細で統一的な定義を導入する。
我々は,4段階の因果関係に関する14,094の因果関係質問からなる新しいデータセットであるCellOを構築した。
論文 参考訳(メタデータ) (2024-06-27T12:34:52Z) - CLadder: Assessing Causal Reasoning in Language Models [82.8719238178569]
我々は,大言語モデル (LLM) が因果関係をコヒーレントに説明できるかどうかを検討する。
ユデア・パールらによって仮定された「因果推論エンジン」にインスパイアされた、自然言語における因果推論という新たなNLPタスクを提案する。
論文 参考訳(メタデータ) (2023-12-07T15:12:12Z) - MoCa: Measuring Human-Language Model Alignment on Causal and Moral
Judgment Tasks [49.60689355674541]
認知科学の豊富な文献は人々の因果関係と道徳的直観を研究してきた。
この研究は、人々の判断に体系的に影響を及ぼす多くの要因を明らかにした。
大規模言語モデル(LLM)が、人間の参加者と一致するテキストベースのシナリオについて因果的、道徳的な判断を下すかどうかを検証する。
論文 参考訳(メタデータ) (2023-10-30T15:57:32Z) - Membership Inference Attacks and Generalization: A Causal Perspective [20.150503790249616]
メンバーシップ推論(MI)攻撃は、ニューラルネットワークの現在のトレーニング方法において、プライバシの弱点を浮き彫りにする。
原理的因果推論に基づくMI攻撃とその一般化への関連性を説明するための最初のアプローチを提案する。
論文 参考訳(メタデータ) (2022-09-18T17:31:11Z) - Visual Abductive Reasoning [85.17040703205608]
帰納的推論は、部分的な観察の可能な限りの可能な説明を求める。
本稿では,日常的な視覚的状況下でのマシンインテリジェンスの帰納的推論能力を調べるために,新たなタスクとデータセットであるVisual Abductive Reasoning(VAR)を提案する。
論文 参考訳(メタデータ) (2022-03-26T10:17:03Z) - Systematic Evaluation of Causal Discovery in Visual Model Based
Reinforcement Learning [76.00395335702572]
AIと因果関係の中心的な目標は、抽象表現と因果構造を共同で発見することである。
因果誘導を研究するための既存の環境は、複雑なタスク固有の因果グラフを持つため、この目的には適していない。
本研究の目的は,高次変数の学習表現と因果構造の研究を促進することである。
論文 参考訳(メタデータ) (2021-07-02T05:44:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。