論文の概要: On the Notion that Language Models Reason
- arxiv url: http://arxiv.org/abs/2511.11810v1
- Date: Fri, 14 Nov 2025 19:04:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:23.319023
- Title: On the Notion that Language Models Reason
- Title(参考訳): 言語モデルが意味する表記について
- Authors: Bertram Højer,
- Abstract要約: 言語モデル(LM)は推論を示すと言われているが、これは何を意味するのか?
提供される定義は、LMのトレーニング方法、情報処理、新しいトークンの生成方法と一致していない、と我々は主張する。
この見解は、LMが「統計的パターンマーカ」であるという主張を実証している。
- 参考スコア(独自算出の注目度): 2.9612444540570113
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Language models (LMs) are said to be exhibiting reasoning, but what does this entail? We assess definitions of reasoning and how key papers in the field of natural language processing (NLP) use the notion and argue that the definitions provided are not consistent with how LMs are trained, process information, and generate new tokens. To illustrate this incommensurability we assume the view that transformer-based LMs implement an \textit{implicit} finite-order Markov kernel mapping contexts to conditional token distributions. In this view, reasoning-like outputs correspond to statistical regularities and approximate statistical invariances in the learned kernel rather than the implementation of explicit logical mechanisms. This view is illustrative of the claim that LMs are "statistical pattern matchers"" and not genuine reasoners and provides a perspective that clarifies why reasoning-like outputs arise in LMs without any guarantees of logical consistency. This distinction is fundamental to how epistemic uncertainty is evaluated in LMs. We invite a discussion on the importance of how the computational processes of the systems we build and analyze in NLP research are described.
- Abstract(参考訳): 言語モデル(LM)は推論を示すと言われているが、これは何を意味するのか?
我々は、推論の定義を評価し、自然言語処理(NLP)の分野でキーとなる論文がどのようにこの概念を用いているかを評価し、提供された定義がLMの訓練方法、処理情報、新しいトークンの生成方法と一致していないことを議論する。
この非可換性を説明するために、トランスフォーマーベースのLMは、条件付きトークン分布に対する有限階マルコフカーネルマッピングコンテキストを実装していると仮定する。
この観点では、推論のような出力は、明示的な論理機構の実装よりもむしろ、学習されたカーネルにおける統計正則性と近似的な統計的不変性に対応している。
この見解は、LMが真の推論者ではなく「統計的パターンマーカ」であるという主張を実証し、論理的整合性の保証なしに、LMに推論のような出力が生じる理由を明らかにする視点を提供する。
この区別は、LMにおいてどのようにててんかんの不確実性を評価するかの基礎となる。
我々は,NLP研究において構築・解析するシステムの計算プロセスの重要性について論じる。
関連論文リスト
- Are Language Models Efficient Reasoners? A Perspective from Logic Programming [109.47572890883248]
現代言語モデル(LM)は、強い推論能力を示すが、標準的な評価は、人間のような推論の重要な側面である効率性を見越しながら、正確性を強調する。
本稿では、論理プログラミングのレンズを用いて、LM推論効率を評価するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2025-10-29T15:30:31Z) - Framework for Machine Evaluation of Reasoning Completeness in Large Language Models For Classification Tasks [0.0]
本稿では、説明の完全性のためのRAS-Reasoning Alignmentを紹介する。
我々は,広く使用されている4つのテキスト分類データセット,WIKI ONTOLOGY, AG NEWS, IMDB, GOEMOTIONSを分析した。
正解予測はサポート特徴のカバレッジが高く,正解予測は矛盾する特徴のカバレッジの増大と関連していることを示す。
論文 参考訳(メタデータ) (2025-10-23T20:22:22Z) - Are We Merely Justifying Results ex Post Facto? Quantifying Explanatory Inversion in Post-Hoc Model Explanations [87.68633031231924]
ポストホックな説明法は、入力特徴に対する予測に起因する解釈を提供する。
これらの説明は、インプットとアウトプットの自然な関係を意図せずに逆転させるだろうか?
Inversion Quantification (IQ) は、説明が出力に依存する程度を定量化し、忠実なインプット・アウトプット関係から逸脱するフレームワークである。
論文 参考訳(メタデータ) (2025-04-11T19:00:12Z) - Computation Mechanism Behind LLM Position Generalization [59.013857707250814]
大規模言語モデル(LLM)は、テキストの位置を扱う際の柔軟性を示す。
彼らは位置摂動のあるテキストを理解し、より長いテキストに一般化することができる。
この研究は言語現象とLLMの計算機構を結びつける。
論文 参考訳(メタデータ) (2025-03-17T15:47:37Z) - Reasoning-as-Logic-Units: Scaling Test-Time Reasoning in Large Language Models Through Logic Unit Alignment [21.12989936864145]
CoT(Chain-of-Thought)のプロンプトによって,大規模言語モデル(LLM)の推論能力の向上が期待できる。
本稿では、生成したプログラムと対応するNL記述との間に論理単位を整列させることにより、より信頼性の高い推論経路を構築するReasoning-as-Logic-Units (RaLU)を提案する。
論文 参考訳(メタデータ) (2025-02-05T08:23:18Z) - On the Representational Capacity of Neural Language Models with Chain-of-Thought Reasoning [87.73401758641089]
CoT推論による現代言語モデル(LM)の性能向上
LMは弦上の分布の族を確率的チューリングマシンと同一に表現できることを示す。
論文 参考訳(メタデータ) (2024-06-20T10:59:02Z) - Evaluating Step-by-Step Reasoning through Symbolic Verification [20.156768135017007]
事前学習言語モデル(LM)は、文脈内学習において顕著な推論性能を示した。
LMLPは、より小さなモデルサイズであっても、長さの一般化ベンチマークにおいて、チェーン・オブ・ソート(CoT)よりも25%以上精度が高い。
論文 参考訳(メタデータ) (2022-12-16T19:30:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。