論文の概要: Chain-of-Conceptual-Thought: Eliciting the Agent to Deeply Think within the Response
- arxiv url: http://arxiv.org/abs/2510.18434v2
- Date: Fri, 24 Oct 2025 09:31:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 09:00:15.221746
- Title: Chain-of-Conceptual-Thought: Eliciting the Agent to Deeply Think within the Response
- Title(参考訳): 思考の連鎖:エージェントが反応の中で深く考えることを避ける
- Authors: Qingqing Gu, Dan Wang, Yue Zhao, Xiaoyu Wang, Zhonglin Jiang, Yong Chen, Hongyan Li, Luo Ji,
- Abstract要約: 我々は、概念思考の連鎖(CoCT)と呼ばれる新しいプロンプトベースのパラダイムを提案する。
CoCT は LLM がまず概念のタグを作成し、次にその概念に従って詳細な内容を完成させることを提案している。
我々はこのパラダイムを、ドメイン内およびドメイン外の両方のコンセプト設定でタスクをカバーし、日常的および感情的なサポート会話で実験する。
- 参考スコア(独自算出の注目度): 13.429499656760356
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Chain-of-Thought (CoT) is widely applied to enhance the LLM capability in math, coding and reasoning tasks. However, its performance is limited for open-domain tasks, when there are no clearly defined reasoning steps or logical transitions. To mitigate such challenges, we propose a new prompt-based paradigm called Chain of Conceptual Thoughts (CoCT), which suggests the LLM first to produce the tag of concepts, then complete the detailed content following the concept. To encourage this hierarchical way of thinking, we implement the concepts with emotions, strategies and topics. We experiment with this paradigm in daily and emotional support conversations, covering tasks with both in-domain and out-of-domain concept settings. Automatic, human, and LLM-based evaluations reveal that CoCT surpasses several prompt-based baselines such as self-refine, ECoT, SoT and RAG, suggesting a potential solution of LLM prompting paradigm for a wider scope of tasks.
- Abstract(参考訳): CoT(Chain-of-Thought)は、数学、コーディング、推論タスクにおけるLLM能力の向上に広く応用されている。
しかし、そのパフォーマンスは、明確な推論ステップや論理遷移がない場合に、オープンドメインタスクに限られる。
このような課題を緩和するために,概念思考の連鎖 (CoCT) と呼ばれる新しいプロンプトベースのパラダイムを提案する。
この階層的な考え方を促進するために、私たちは感情、戦略、トピックを使って概念を実装します。
我々はこのパラダイムを、ドメイン内およびドメイン外の両方のコンセプト設定でタスクをカバーし、日常的および感情的なサポート会話で実験する。
自動的、人間的、LLMに基づく評価は、CoCTが自己精製、ECoT、SoT、RAGといったいくつかのプロンプトベースのベースラインを超越していることを示し、タスクの範囲を広げるためにLLMプロンプトパラダイムの潜在的な解決策が示唆されている。
関連論文リスト
- "Well, Keep Thinking": Enhancing LLM Reasoning with Adaptive Injection Decoding [4.008780119020479]
大規模言語モデル(LLM)は強力な推論能力を示しており、多くの場合、ほとんどショットやゼロショットの連鎖(CoT)のプロンプトによるものである。
本稿では,LLMを体系的に推論を継続し,未熟な推論を防止できる新しい復号法を提案する。
論文 参考訳(メタデータ) (2025-03-13T08:46:32Z) - Meta-Reasoner: Dynamic Guidance for Optimized Inference-time Reasoning in Large Language Models [35.82665698868508]
大規模言語モデル(LLM)は、推論時間の間に高い計算時間とエラーの伝播に苦労する。
提案するMeta-Reasonerは,LLMが推論時間における推論方法の戦略を調整することで,推論計算を最適化するための新しいフレームワークである。
提案手法は,従来のSOTA法よりも9~12%向上し,推論時間を28~35%短縮する。
論文 参考訳(メタデータ) (2025-02-27T09:40:13Z) - MyGO Multiplex CoT: A Method for Self-Reflection in Large Language Models via Double Chain of Thought Thinking [4.234183823376613]
我々は、LLMが推論しながら自己レビューの形式をシミュレートできる手法であるMultiformx CoT(Chain of Thought)を紹介する。
多重 CoT は反復的推論の力を活用し、モデルが最初の思考の連鎖を生成し、その後批判し、この推論を洗練させる。
論文 参考訳(メタデータ) (2025-01-20T12:54:57Z) - Unlocking the Capabilities of Thought: A Reasoning Boundary Framework to Quantify and Optimize Chain-of-Thought [61.588465852846646]
大型言語モデル(LLM)の性能向上のための有望なアプローチとして、Chain-of-Thought(CoT)推論が登場した。
本稿では,これらの課題に対処するための新しい推論境界フレームワーク(RBF)を提案する。
論文 参考訳(メタデータ) (2024-10-08T05:26:28Z) - Think Twice: Perspective-Taking Improves Large Language Models'
Theory-of-Mind Capabilities [63.90227161974381]
SimToMは、シミュレーション理論の視点取りの概念にインスパイアされた、新しいプロンプトフレームワークである。
我々のアプローチは、追加のトレーニングや最小限のプロンプトチューニングを必要とせず、既存の手法よりも大幅に改善されている。
論文 参考訳(メタデータ) (2023-11-16T22:49:27Z) - Everything of Thoughts: Defying the Law of Penrose Triangle for Thought
Generation [42.472954457731355]
本稿では,既存の思考パラダイムの「ペンローズ三角形」の法則に反する,思考のすべて(XoT)と呼ばれる新しい思考促進手法を紹介する。
XoTは、事前訓練された強化学習とモンテカルロ木探索(MCTS)を活用して、外部ドメイン知識を思考に組み込む。
我々は,ゲーム24,8-Puzzle,Pocket Cubeなど,難解な複数解問題に対するXoTの評価を行った。
論文 参考訳(メタデータ) (2023-11-07T12:30:36Z) - Encouraging Divergent Thinking in Large Language Models through Multi-Agent Debate [85.3444184685235]
複数のエージェントが"tit for tat"の状態で議論を表現するマルチエージェント議論(MAD)フレームワークを提案し、審査員が議論プロセスを管理して最終解を得る。
我々のフレームワークは、深い熟考を必要とするタスクに役立ちそうなLSMにおける散発的思考を奨励する。
論文 参考訳(メタデータ) (2023-05-30T15:25:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。