論文の概要: Simulated Reasoning is Reasoning
- arxiv url: http://arxiv.org/abs/2601.02043v1
- Date: Mon, 05 Jan 2026 12:00:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-06 16:25:23.056075
- Title: Simulated Reasoning is Reasoning
- Title(参考訳): Simulated Reasoning is Reasoning
- Authors: Hendrik Kempt, Alon Lavie,
- Abstract要約: 推論は特定の方法で理解する過程、すなわち「象徴的推論」として概念化される
基礎モデル(FM)は、これが多くの推論タスクに必要な条件ではないことを示した。
本稿では,この現象のいくつかの哲学的解釈について論じる。
- 参考スコア(独自算出の注目度): 1.081429304384004
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Reasoning has long been understood as a pathway between stages of understanding. Proper reasoning leads to understanding of a given subject. This reasoning was conceptualized as a process of understanding in a particular way, i.e., "symbolic reasoning". Foundational Models (FM) demonstrate that this is not a necessary condition for many reasoning tasks: they can "reason" by way of imitating the process of "thinking out loud", testing the produced pathways, and iterating on these pathways on their own. This leads to some form of reasoning that can solve problems on its own or with few-shot learning, but appears fundamentally different from human reasoning due to its lack of grounding and common sense, leading to brittleness of the reasoning process. These insights promise to substantially alter our assessment of reasoning and its necessary conditions, but also inform the approaches to safety and robust defences against this brittleness of FMs. This paper offers and discusses several philosophical interpretations of this phenomenon, argues that the previously apt metaphor of the "stochastic parrot" has lost its relevance and thus should be abandoned, and reflects on different normative elements in the safety- and appropriateness-considerations emerging from these reasoning models and their growing capacity.
- Abstract(参考訳): 推論は長い間、理解の段階間の経路として理解されてきた。
適切な推論は、与えられた主題を理解することにつながる。
この推論は、特定の方法で理解する過程、すなわち「象徴的推論」として概念化された。
基礎モデル(FM)は、これが多くの推論タスクにとって必要条件ではないことを示した。
これは、自身の問題や数発の学習で解決できる何らかの推論に繋がるが、根拠と常識の欠如により人間の推論と根本的に異なるように見え、推論プロセスの脆さにつながる。
これらの知見は、我々の推論とその必要条件に対する評価を大幅に変え、また、このFMの脆さに対する安全性と堅牢な防御へのアプローチを通知する。
本稿は、この現象のいくつかの哲学的解釈を提供し、議論し、それまでの「確率的オウム」のメタファーは、その関連性を失い、放棄されるべきであり、これらの推論モデルから生じる安全性と適切性-思考の異なる規範的要素を反映している、と論じる。
関連論文リスト
- Learning What to Attend First: Modality-Importance-Guided Reasoning for Reliable Multimodal Emotion Understanding [50.014363382140324]
モダリティ・コンパタンス(MI)は、感情に支配的なモダリティを識別するためのシンプルで効果的なメカニズムである。
MIGRは推論シーケンスを再編成し、その説明は対象の感情に対して最も重要なモダリティから始まる。
その結果、MIGRは推論信頼性を大幅に改善し、感情的に矛盾した説明を伴う正しい予測の事例を減少させることがわかった。
論文 参考訳(メタデータ) (2025-12-02T12:29:41Z) - Reason from Future: Reverse Thought Chain Enhances LLM Reasoning [18.637191592875155]
我々はReason from Future(RFF)と呼ばれる新しい推論パラダイムを提案する。
RFFは、トップダウン計画とボトムアップ推論蓄積を組み合わせた双方向推論によって推論パスを生成する。
RFFは、複雑なタスクを解決するために、より正確で検索スペースの少ない従来のパラダイムよりも優れている。
論文 参考訳(メタデータ) (2025-06-04T08:03:17Z) - Dialogue-based Explanations for Logical Reasoning using Structured Argumentation [0.06138671548064355]
我々は、最先端技術の構造的弱点を特定し、これらの問題に対処するための一般的な議論に基づくアプローチを提案する。
我々の研究は、問合せ応答を計算し、説明するための弁証法として対話モデルを提供する。
これにより、既存の説明形式よりも表現的かつ直感的な弁証的証明木を説明として構築することができる。
論文 参考訳(メタデータ) (2025-02-16T22:26:18Z) - SR-FoT: A Syllogistic-Reasoning Framework of Thought for Large Language Models Tackling Knowledge-based Reasoning Tasks [42.392103712958445]
大規模言語モデル(LLM)は正しい推論パスに従わないかもしれない。
我々は、多段階のSylological-Reasoning Framework of Thought (SR-FoT)を提案する。
我々のSR-FoTは、まず質問を解釈し、それから解釈と元の質問を使って適切な主要な前提を提案する。
論文 参考訳(メタデータ) (2025-01-20T17:00:41Z) - Crystal: Introspective Reasoners Reinforced with Self-Feedback [118.53428015478957]
本稿では,イントロスペクティブ・コモンセンス推論器であるCrystalを開発するための新しい手法を提案する。
コモンセンス問題に対処するため、まず与えられた質問に関連する知識ステートメントのイントロスペクションを行い、その後、それまでのイントロスペクションされた知識に根ざした情報予測を行う。
実験により、クリスタルは標準的な微調整法と連鎖蒸留法の両方で著しく優れており、コモンセンス推論プロセスの透明性を高めていることが示された。
論文 参考訳(メタデータ) (2023-10-07T21:23:58Z) - Towards CausalGPT: A Multi-Agent Approach for Faithful Knowledge Reasoning via Promoting Causal Consistency in LLMs [55.66353783572259]
Causal-Consistency Chain-of-Thoughtは、基礎モデルの忠実さと因果性を強化するために、マルチエージェントコラボレーションを活用する。
我々のフレームワークは、広範囲かつ包括的な評価を通じて、最先端の手法よりも大きな優位性を示す。
論文 参考訳(メタデータ) (2023-08-23T04:59:21Z) - Disentangling Reasoning Capabilities from Language Models with
Compositional Reasoning Transformers [72.04044221898059]
ReasonFormerは、人間のモジュール的および構成的推論プロセスを反映するための統一的な推論フレームワークである。
表現モジュール(自動思考)と推論モジュール(制御思考)は、異なるレベルの認知を捉えるために切り離される。
統一された推論フレームワークは、単一のモデルで複数のタスクを解決し、エンドツーエンドでトレーニングされ、推論される。
論文 参考訳(メタデータ) (2022-10-20T13:39:55Z) - Annotating Implicit Reasoning in Arguments with Causal Links [34.77514899468729]
議論知識の形で暗黙の知識を特定することに注力する。
コンシークエンススキームのArgumentに着想を得て,そのような議論の知識を表現するための半構造化テンプレートを提案する。
クラウドソーシングによる高品質な暗黙的推論の収集とフィルタリング方法を示す。
論文 参考訳(メタデータ) (2021-10-26T13:28:53Z) - Cognitive Argumentation and the Suppression Task [1.027974860479791]
本稿では,認知論(Cognitive Argumentation)と呼ばれる新たなフレームワークにおいて,人間の推論をモデル化する上での課題について述べる。
このフレームワークは認知科学における経験的および理論的研究に基づく認知原理に依存しており、AIから計算議論の一般的かつ抽象的な枠組みを適応させる。
我々は、認知論は、人間の条件推論に一貫性があり、認知的に適切なモデルを提供すると論じている。
論文 参考訳(メタデータ) (2020-02-24T10:30:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。