論文の概要: Causes in neuron diagrams, and testing causal reasoning in Large Language Models. A glimpse of the future of philosophy?
- arxiv url: http://arxiv.org/abs/2506.14239v1
- Date: Tue, 17 Jun 2025 06:55:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-18 17:34:59.366246
- Title: Causes in neuron diagrams, and testing causal reasoning in Large Language Models. A glimpse of the future of philosophy?
- Title(参考訳): 大言語モデルにおけるニューロン図の原因と因果推論 : 哲学の未来を垣間見る
- Authors: Louis Vervoort, Vitaly Nikolaev,
- Abstract要約: 我々は、因果関係の哲学の学問に基づくAIにおける抽象因果推論のテストを提案する。
先進的な大規模言語モデル(ChatGPT, DeepSeek, Gemini)のテストについて説明する。
- 参考スコア(独自算出の注目度): 0.6138671548064356
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a test for abstract causal reasoning in AI, based on scholarship in the philosophy of causation, in particular on the neuron diagrams popularized by D. Lewis. We illustrate the test on advanced Large Language Models (ChatGPT, DeepSeek and Gemini). Remarkably, these chatbots are already capable of correctly identifying causes in cases that are hotly debated in the literature. In order to assess the results of these LLMs and future dedicated AI, we propose a definition of cause in neuron diagrams with a wider validity than published hitherto, which challenges the widespread view that such a definition is elusive. We submit that these results are an illustration of how future philosophical research might evolve: as an interplay between human and artificial expertise.
- Abstract(参考訳): 本稿では、AIにおける抽象因果推論のテストについて、特にD. Lewisが広めたニューロン図に基づいて、因果関係の哲学の奨学金に基づいて提案する。
先進的な大規模言語モデル(ChatGPT、DeepSeek、Gemini)について説明する。
興味深いことに、これらのチャットボットは、文献でホットな議論がなされているケースで原因を正しく特定する能力を持っている。
これらのLSMと将来の専用AIの結果を評価するために、出版されたヒッヘルトよりも広い妥当性を持つニューロン図の因果関係の定義を提案する。
これらの結果は、人間の専門知識と人工的な専門知識の相互作用として、将来の哲学研究がどのように進化していくかを示すものであると提案する。
関連論文リスト
- Stronger Language Models Produce More Human-Like Errors [0.0]
モデル高度化に伴い、全体的な推論能力は増大するが、エラーの性質は予測可能な人間の推論誤信を反映する傾向にある。
我々は,383の推論タスクにおける38の言語モデルを評価することによって,人間が予測できる論理的推論問題を生成する。
我々の分析は、モデルが一般的な能力に進化するにつれて、ETR予測された人間の誤動作に対応する不正確な回答の割合が増加する傾向にあることを示している。
論文 参考訳(メタデータ) (2025-06-10T17:04:33Z) - Exploring Reasoning Biases in Large Language Models Through Syllogism: Insights from the NeuBAROCO Dataset [5.695579108997392]
本稿では,現在の大規模言語モデルが自然言語の論理的推論をどの程度正確に行うか,という問題について考察する。
我々は,英語と日本語のシロジズム推論問題からなるNeuBAROCOというシロジズムデータセットを提案する。
大きな言語モデルを用いた我々の実験は、これらのモデルが、他のエラー傾向とともに、人間に類似した推論バイアスを示すことを示している。
論文 参考訳(メタデータ) (2024-08-08T12:10:50Z) - Conceptual and Unbiased Reasoning in Language Models [98.90677711523645]
本稿では,抽象的質問に対する概念的推論をモデルに強制する,新しい概念化フレームワークを提案する。
既存の大規模言語モデルは概念的推論では不足しており、様々なベンチマークでは9%から28%に低下している。
ハイレベルな抽象的推論が不偏で一般化可能な意思決定の鍵となるので、モデルがどのように改善できるかについて議論する。
論文 参考訳(メタデータ) (2024-03-30T00:53:53Z) - The Generative AI Paradox: "What It Can Create, It May Not Understand" [81.89252713236746]
生成AIの最近の波は、潜在的に超人的な人工知能レベルに対する興奮と懸念を引き起こしている。
同時に、モデルは、専門家でない人でも期待できないような理解の基本的な誤りを示している。
一見超人的な能力と、ごく少数の人間が起こすエラーの持続性を、どうやって再現すればよいのか?
論文 参考訳(メタデータ) (2023-10-31T18:07:07Z) - State space models can express n-gram languages [51.823427608117626]
我々は、n-gramルールから生成された言語に対して、次の単語予測タスクを解くことのできる状態空間言語モデルを構築している。
我々の証明は、SSMがn-gramルールをその能力に関する新たな理論的結果を用いてエンコードする方法を示している。
n-gramルールから生成された小さなデータセットを用いて実験を行い、勾配に基づく最適化によって得られたSSMやRNNにフレームワークをどのように適用できるかを示す。
論文 参考訳(メタデータ) (2023-06-20T10:41:23Z) - Language models show human-like content effects on reasoning tasks [33.677483386820555]
大規模言語モデル (LM) は推論タスクの超精度を達成するが、多くの不完全性を示す。
人間の推論は現実世界の知識に影響され、意味的コンテンツが論理的推論をサポートする場合、確実に効果を示す。
本研究は,これらの認知的影響と,言語モデルの性能に寄与する要因の両方に影響を及ぼすものである。
論文 参考訳(メタデータ) (2022-07-14T16:51:09Z) - Visual Abductive Reasoning [85.17040703205608]
帰納的推論は、部分的な観察の可能な限りの可能な説明を求める。
本稿では,日常的な視覚的状況下でのマシンインテリジェンスの帰納的推論能力を調べるために,新たなタスクとデータセットであるVisual Abductive Reasoning(VAR)を提案する。
論文 参考訳(メタデータ) (2022-03-26T10:17:03Z) - What does it mean to represent? Mental representations as falsifiable
memory patterns [8.430851504111585]
我々は、因果的および遠隔的アプローチは表現の十分な説明を提供していないと論じる。
我々は、どの表現が世界の推論された潜在構造に対応するかという選択肢をスケッチする。
これらの構造は客観的に特定の特性を持つと考えられており、予期せぬ事象の計画、予測、検出を可能にしている。
論文 参考訳(メタデータ) (2022-03-06T12:52:42Z) - ACRE: Abstract Causal REasoning Beyond Covariation [90.99059920286484]
因果誘導における現在の視覚システムの系統的評価のための抽象因果分析データセットについて紹介する。
Blicket実験における因果発見の研究の流れに触発され、独立シナリオと介入シナリオのいずれにおいても、以下の4種類の質問で視覚的推論システムに問い合わせる。
純粋なニューラルモデルは確率レベルのパフォーマンスの下で連想戦略に向かう傾向があるのに対し、ニューロシンボリックな組み合わせは後方ブロッキングの推論に苦しむ。
論文 参考訳(メタデータ) (2021-03-26T02:42:38Z) - Counterfactuals and Causability in Explainable Artificial Intelligence:
Theory, Algorithms, and Applications [0.20999222360659603]
一部の研究者は、機械がある程度の人間レベルの説明性を達成するためには、因果的に理解できる説明を提供する必要があると主張した。
可利用性を提供する可能性のある特定のアルゴリズムのクラスは偽物である。
本稿では,多種多様な文献を体系的に検証し,その事実と説明可能な人工知能の因果性について述べる。
論文 参考訳(メタデータ) (2021-03-07T03:11:39Z) - Inductive Biases for Deep Learning of Higher-Level Cognition [108.89281493851358]
興味深い仮説は、人間と動物の知性はいくつかの原則によって説明できるということである。
この研究は、主に高いレベルとシーケンシャルな意識的処理に関心のある人を中心に、より大きなリストを考察する。
これらの特定の原則を明確にする目的は、人間の能力から恩恵を受けるAIシステムを構築するのに役立つ可能性があることである。
論文 参考訳(メタデータ) (2020-11-30T18:29:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。