論文の概要: CoT is Not True Reasoning, It Is Just a Tight Constraint to Imitate: A Theory Perspective
- arxiv url: http://arxiv.org/abs/2506.02878v1
- Date: Tue, 03 Jun 2025 13:45:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:35.715213
- Title: CoT is Not True Reasoning, It Is Just a Tight Constraint to Imitate: A Theory Perspective
- Title(参考訳): CoTは本当の推論ではなく、Imitateの厳格な制約だ:理論的視点
- Authors: Jintian Shao, Yiming Cheng,
- Abstract要約: CoT(Chain-of-Thought)の促進により、大規模言語モデルの性能が明らかに向上した。
チェーン・オブ・サートは、大規模言語モデルに推論の形式を模倣するように誘導する強力な構造的制約として機能する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Chain-of-Thought (CoT) prompting has demonstrably enhanced the performance of Large Language Models on tasks requiring multi-step inference. This success has led to widespread claims of emergent reasoning capabilities in these models. In this paper, we present a theoretical counter-perspective: Chain-of-Thought (CoT) does not elicit genuine, abstract reasoning. Instead, we argue that Chain-of-Thought functions as a powerful structural constraint that guides Large Language Models to imitate the form of reasoning. By forcing the generation of intermediate steps, Chain-of-Thought leverages the model immense capacity for sequence prediction and pattern matching, effectively constraining its output to sequences that resemble coherent thought processes. Chain-of-Thought (CoT) prompting has demonstrably enhanced the performance of Large Language Models on tasks requiring multi-step inference. This success has led to widespread claims of emergent reasoning capabilities in these models. In this paper, we present a theoretical counter-perspective: Chain-of-Thought (CoT) does not elicit genuine, abstract reasoning. Instead, we argue that Chain-of-Thought functions as a powerful structural constraint that guides Large Language Models to imitate the form of reasoning. By forcing the generation of intermediate steps, Chain-of-Thought leverages the model immense capacity for sequence prediction and pattern matching, effectively constraining its output to sequences that resemble coherent thought processes.
- Abstract(参考訳): CoT(Chain-of-Thought)のプロンプトにより、多段階推論を必要とするタスクにおいて、大規模言語モデルの性能が明らかに向上した。
この成功は、これらのモデルにおける創発的推論能力の広範な主張につながった。
本稿では,理論的な反観念を提示する: CoT (Chain-of-Thought) は真の抽象的推論を引き起こさない。
その代わり、Chain-of-Thoughtは大規模言語モデルに推論の形式を模倣するように誘導する強力な構造的制約として機能すると主張する。
中間段階の生成を強制することにより、Chain-of-Thoughtはシーケンス予測とパターンマッチングに膨大な容量のモデルを活用し、その出力を一貫性のある思考プロセスに似たシーケンスに効果的に制約する。
CoT(Chain-of-Thought)のプロンプトにより、多段階推論を必要とするタスクにおいて、大規模言語モデルの性能が明らかに向上した。
この成功は、これらのモデルにおける創発的推論能力の広範な主張につながった。
本稿では,理論的な反観念を提示する: CoT (Chain-of-Thought) は真の抽象的推論を引き起こさない。
その代わり、Chain-of-Thoughtは大規模言語モデルに推論の形式を模倣するように誘導する強力な構造的制約として機能すると主張する。
中間段階の生成を強制することにより、Chain-of-Thoughtはシーケンス予測とパターンマッチングに膨大な容量のモデルを活用し、その出力を一貫性のある思考プロセスに似たシーケンスに効果的に制約する。
関連論文リスト
- Contrastive Chain-of-Thought Prompting [74.10511560147293]
本稿では,言語モデル推論を強化するために,思考の対照的な連鎖を提案する。
従来の思考の連鎖と比較して,本手法は妥当かつ無効な推論実証を提供する。
推論ベンチマーク実験により、思考の対照的な連鎖は、思考の連鎖の促進に役立てることができることを示した。
論文 参考訳(メタデータ) (2023-11-15T18:54:01Z) - Why Can Large Language Models Generate Correct Chain-of-Thoughts? [10.888196404348093]
自然言語生成に適した2階層階層型グラフィカルモデルを提案する。
我々は、LLM生成した思考の連鎖の可能性を測る魅力的な幾何学的収束率を確立する。
論文 参考訳(メタデータ) (2023-10-20T15:09:46Z) - Beyond Chain-of-Thought, Effective Graph-of-Thought Reasoning in Language Models [74.40196814292426]
本稿では,人間の思考過程をチェーンとしてだけでなく,グラフとしてモデル化するグラフ・オブ・ソート(GoT)推論を提案する。
GoTは人間の思考の連続しない性質を捉え、思考プロセスのより現実的なモデリングを可能にします。
テキストのみの推論タスクとマルチモーダル推論タスクでGoTの性能を評価する。
論文 参考訳(メタデータ) (2023-05-26T02:15:09Z) - Visual Chain of Thought: Bridging Logical Gaps with Multimodal
Infillings [61.04460792203266]
本稿では, 逐次データ内の論理的ギャップを埋めるために, 視覚言語による接地を促進させる, チェーン・オブ・シントを利用する新しい手法であるVCoTを紹介する。
本手法は,下流タスクの論理的ギャップを低減するために,一貫した情報と新しい情報を加える合成マルチモーダル埋め込みを生成するために視覚誘導を用いる。
論文 参考訳(メタデータ) (2023-05-03T17:58:29Z) - Multimodal Chain-of-Thought Reasoning in Language Models [94.70184390935661]
言語(テキスト)と視覚(画像)のモダリティを2段階のフレームワークに組み込んだマルチモーダルCoTを提案する。
その結果,ScienceQA と A-OKVQA のベンチマークは,提案手法の有効性を示した。
論文 参考訳(メタデータ) (2023-02-02T07:51:19Z) - Chain of Thought Prompting Elicits Reasoning in Large Language Models [56.811278668446825]
本稿では,コヒーレントな思考連鎖を生成する言語モデルについて考察する。
実験により、プロンプトによって思考の連鎖を誘導することで、十分な大きな言語モデルが推論タスクをよりよく実行できるようになることが示されている。
論文 参考訳(メタデータ) (2022-01-28T02:33:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。