論文の概要: What Kind of Reasoning (if any) is an LLM actually doing? On the Stochastic Nature and Abductive Appearance of Large Language Models
- arxiv url: http://arxiv.org/abs/2512.10080v1
- Date: Wed, 10 Dec 2025 21:06:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-12 16:15:42.063197
- Title: What Kind of Reasoning (if any) is an LLM actually doing? On the Stochastic Nature and Abductive Appearance of Large Language Models
- Title(参考訳): LLMが実際に行っていること(もしあるなら)とは何か? 大規模言語モデルの確率的性質と帰納的出現について
- Authors: Luciano Floridi, Jessica Morley, Claudio Novelli, David Watson,
- Abstract要約: 本稿では、トークン補完法を用いて機能する現在のLarge Language Models(LLM)における推論がどのように機能するかを考察する。
それは、その性質と、人間の誘惑的推論と類似性を調べる。
- 参考スコア(独自算出の注目度): 0.3359875577705536
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This article looks at how reasoning works in current Large Language Models (LLMs) that function using the token-completion method. It examines their stochastic nature and their similarity to human abductive reasoning. The argument is that these LLMs create text based on learned patterns rather than performing actual abductive reasoning. When their output seems abductive, this is largely because they are trained on human-generated texts that include reasoning structures. Examples are used to show how LLMs can produce plausible ideas, mimic commonsense reasoning, and give explanatory answers without being grounded in truth, semantics, verification, or understanding, and without performing any real abductive reasoning. This dual nature, where the models have a stochastic base but appear abductive in use, has important consequences for how LLMs are evaluated and applied. They can assist with generating ideas and supporting human thinking, but their outputs must be critically assessed because they cannot identify truth or verify their explanations. The article concludes by addressing five objections to these points, noting some limitations in the analysis, and offering an overall evaluation.
- Abstract(参考訳): 本稿では、トークン補完法を用いて機能する現在のLarge Language Models(LLM)における推論がどのように機能するかを考察する。
彼らの確率的性質と、人間の誘惑的推論と類似性を調べる。
これらのLLMは、実際の帰納的推論を行うのではなく、学習パターンに基づいたテキストを生成する、という主張である。
アウトプットが誘惑的に見えるのは、主に推論構造を含む人為的なテキストで訓練されているためである。
LLMがプラウシブルなアイデアを生み出し、コモンセンス推論を模倣し、真理、意味論、検証、理解を根拠にすることなく説明的な答えを与える方法を示すために用いられる。
この双対的な性質は、モデルが確率的ベースを持つが、使用には誘惑的に見えるが、LLMの評価と適用方法に重要な結果をもたらす。
彼らはアイデアの生成と人間の思考を支援することができるが、その成果は真実を特定したり、説明を検証できないため、批判的に評価されなければならない。
この記事は、これらの点に対する5つの反対に対処し、分析のいくつかの制限を指摘し、全体的な評価を提供することで締めくくっている。
関連論文リスト
- Inductive or Deductive? Rethinking the Fundamental Reasoning Abilities of LLMs [99.76347807139615]
推論には2つの典型型がある: 帰納的推論(deductive reasoning)と帰納的推論(inductive reasoning)。
大規模言語モデル(LLM)の推論能力に関する広範な研究にもかかわらず、ほとんどの研究は帰納的推論と帰納的推論を厳密に区別することができなかった。
LLM推論では、帰納的または帰納的推論という、より大きな課題を引き起こします。
論文 参考訳(メタデータ) (2024-07-31T18:47:11Z) - LogicBench: Towards Systematic Evaluation of Logical Reasoning Ability of Large Language Models [52.03659714625452]
最近開発された大規模言語モデル (LLM) は、幅広い言語理解タスクにおいて非常によく機能することが示されている。
しかし、それらは自然言語に対して本当に「理性」があるのだろうか?
この疑問は研究の注目を集めており、コモンセンス、数値、定性的など多くの推論技術が研究されている。
論文 参考訳(メタデータ) (2024-04-23T21:08:49Z) - Assessing Step-by-Step Reasoning against Lexical Negation: A Case Study
on Syllogism [19.590120229602103]
大規模言語モデル(LLM)は、ステップバイステップの推論命令、例えばチェーン・オブ・シント(CoT)プロンプトを利用する。
本研究では, 否定に着目したLCMのステップバイステップ推論能力について検討する。
論文 参考訳(メタデータ) (2023-10-23T12:40:41Z) - Are Large Language Models Really Good Logical Reasoners? A Comprehensive Evaluation and Beyond [46.75497042978449]
大規模言語モデル(LLM)は、自然言語処理(NLP)における注目すべき革新として登場した。
本論文では,このギャップを埋め,包括的に評価することを目的としている。
評価の包括性を考慮すると、3つの早期代表型LSMと4つのトレンド型LSMを含む。
論文 参考訳(メタデータ) (2023-06-16T13:39:35Z) - Large Language Models are In-Context Semantic Reasoners rather than
Symbolic Reasoners [75.85554779782048]
大規模言語モデル(LLM)は、近年、自然言語と機械学習コミュニティを興奮させています。
多くの成功を収めたアプリケーションにもかかわらず、そのようなコンテキスト内機能の基盤となるメカニズムはまだ不明である。
本研究では,学習した言語トークンのテクストセマンティクスが推論過程において最も重い処理を行うと仮定する。
論文 参考訳(メタデータ) (2023-05-24T07:33:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。