論文の概要: Putting on the Thinking Hats: A Survey on Chain of Thought Fine-tuning from the Perspective of Human Reasoning Mechanism
- arxiv url: http://arxiv.org/abs/2510.13170v1
- Date: Wed, 15 Oct 2025 05:54:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-16 20:13:28.514835
- Title: Putting on the Thinking Hats: A Survey on Chain of Thought Fine-tuning from the Perspective of Human Reasoning Mechanism
- Title(参考訳): 思考ハットに就いて:人間の推論メカニズムからみた思考微調整の連鎖に関する調査
- Authors: Xiaoshu Chen, Sihang Zhou, Ke Liang, Duanyang Yuan, Haoyuan Chen, Xiaoyu Sun, Linyuan Meng, Xinwang Liu,
- Abstract要約: CoT(Chain of Think)ファインチューニングは、大きな言語モデル(LLM)に推論能力を持たせることを目的として、キュレートされた推論トレースに基づいてそれらをトレーニングする。
人間の推論理論に基づくCoT微調整に関する最初の包括的調査を示す。
- 参考スコア(独自算出の注目度): 31.87618962437243
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Chain of thought (CoT) fine-tuning aims to endow large language models (LLMs) with reasoning capabilities by training them on curated reasoning traces. It leverages both supervised and reinforced fine-tuning to cultivate human-like reasoning skills in LLMs, including detailed planning, divergent thinking, intuitive judgment, timely reflection, internal thinking, and fact perception, etc. As CoT fine-tuning has advanced, LLMs have demonstrated substantial improvements in tasks such as mathematical reasoning and code generation. However, existing surveys about CoT fine-tuning primarily focus on technical aspects and overlook a systematic analysis from the perspective of human reasoning mechanisms. Given that the ultimate goal of CoT fine-tuning is to enable LLMs to reason like humans, it is crucial to investigate this technique through the lens of human cognition. To fill this gap, we present the first comprehensive survey of CoT fine-tuning grounded in human reasoning theory. Specifically, inspired by the well-known Six Thinking Hats framework, which systematically characterizes common human thinking modes using six metaphorical hats, we classify and examine CoT fine-tuning methods through this lens. Furthermore, building upon this theory, we outline potential directions for future research in CoT fine-tuning. In addition, we compile a comprehensive overview of existing datasets and model performances, and a real-time GitHub repository \footnote{https://github.com/AI-Chen/Awesome-CoT-Finetuning} that continuously tracks recent advances in this area is maintained. We hope this survey will serve as a valuable resource to inspire innovation and foster progress in this rapidly evolving field.
- Abstract(参考訳): CoT(Chain of Think)ファインチューニングは、大きな言語モデル(LLM)に推論能力を持たせることを目的として、キュレートされた推論トレースに基づいてそれらをトレーニングする。
教師付きおよび強化された微調整の両方を活用して、詳細な計画、散発的思考、直感的判断、タイムリーリフレクション、内的思考、事実知覚など、LLMにおける人間のような推論スキルを育成する。
CoTの微調整が進むにつれて、LLMは数学的推論やコード生成といったタスクを大幅に改善した。
しかし、CoTファインチューニングに関する既存の調査は、主に技術的な側面に注目し、人間の推論メカニズムの観点から体系的な分析を見落としている。
CoTファインチューニングの最終的な目標は、LLMが人間のように推論できるようにすることであることを考えると、人間の認知のレンズを通してこの技術を調べることが不可欠である。
このギャップを埋めるために,人間の推論理論に基づくCoT微調整に関する総合的な調査を行った。
具体的には、一般的な人間の思考モードを6つの比喩的な帽子を用いて体系的に特徴づける、よく知られたSix Thinking Hatsフレームワークに着想を得た。
さらに、この理論に基づいて、CoT微調整における今後の研究の方向性を概説する。
さらに、既存のデータセットとモデルパフォーマンスの包括的な概要をコンパイルし、この領域の最近の進歩を継続的に追跡するリアルタイムGitHubリポジトリである \footnote{https://github.com/AI-Chen/Awesome-CoT-Finetuning} を保守する。
この調査がイノベーションを刺激し、急速に発展するこの分野の進歩を促進するための貴重なリソースになることを期待している。
関連論文リスト
- From Perception to Cognition: A Survey of Vision-Language Interactive Reasoning in Multimodal Large Language Models [59.85951092642609]
MLLM(Multimodal Large Language Models)は、物理的世界に対する深い人間的な理解と相互作用を達成するための試みである。
情報取得(知覚)や推論(認知)を行う際、しばしば浅く不整合な統合を示す。
この調査では、新しい統合分析フレームワーク「知覚から認知へ」を紹介した。
論文 参考訳(メタデータ) (2025-09-29T18:25:40Z) - Explain Before You Answer: A Survey on Compositional Visual Reasoning [74.27548620675748]
構成的視覚推論は、マルチモーダルAIにおける重要な研究フロンティアとして登場した。
本調査は,トップ会場(CVPR,ICCV,NeurIPS,ICML,ACLなど)から260以上の論文を体系的にレビューする。
次に60以上のベンチマークとそれに対応するメトリクスを、基底精度、連鎖忠実性、高分解能知覚などの次元に沿って探索する。
論文 参考訳(メタデータ) (2025-08-24T11:01:51Z) - Understanding Reasoning in Chain-of-Thought from the Hopfieldian View [17.18897746431302]
本稿では,認知神経科学における認知のホップフィールド的視点に基づく新しい視点を紹介する。
我々は, CoT(Chain-of-Thought)推論と, 刺激, 行動, 神経集団, 表現空間といった重要な認知要素の関連性を確立する。
我々は,低次元表現空間のロバスト性を利用して,CoTにおける推論過程のロバスト性を高めるRepresentation-of-Thought(RoT)フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-04T16:55:30Z) - Think Twice: Perspective-Taking Improves Large Language Models'
Theory-of-Mind Capabilities [63.90227161974381]
SimToMは、シミュレーション理論の視点取りの概念にインスパイアされた、新しいプロンプトフレームワークである。
我々のアプローチは、追加のトレーニングや最小限のプロンプトチューニングを必要とせず、既存の手法よりも大幅に改善されている。
論文 参考訳(メタデータ) (2023-11-16T22:49:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。