論文の概要: CAC-CoT: Connector-Aware Compact Chain-of-Thought for Efficient Reasoning Data Synthesis Across Dual-System Cognitive Tasks
- arxiv url: http://arxiv.org/abs/2508.18743v2
- Date: Mon, 15 Sep 2025 06:27:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-16 15:23:16.370557
- Title: CAC-CoT: Connector-Aware Compact Chain-of-Thought for Efficient Reasoning Data Synthesis Across Dual-System Cognitive Tasks
- Title(参考訳): CAC-CoT:デュアルシステム認知タスク間の効率的な推論データ合成のためのコネクタ対応コンパクトチェイン・オブ・サード
- Authors: Sunguk Choi, Yonghoon Kwon, Heondeuk Lee,
- Abstract要約: ロングチェーン・オブ・思想(CoT)は、大規模言語モデル(LLM)が困難な問題を解決するのに役立つ。
本稿では,コネクタ・アウェア・コンパクトCoT(CAC-CoT)について述べる。
CAC-CoTはGSM8Kで約85%、GPQA(System-2)で約40%、S1-Bench(System-1)で約85%、ベースラインを20%以上上回る。
- 参考スコア(独自算出の注目度): 0.8921166277011348
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Long chain-of-thought (CoT) prompting helps Large Language Models (LLMs) solve difficult problems, but very long traces often slow or even degrade performance on fast, intuitive "System-1" tasks. We introduce Connector-Aware Compact CoT (CAC-CoT) -- a method that deliberately restricts reasoning to a small, fixed set of connector phrases, steering the model toward concise and well -- structured explanations. Despite its simplicity, our synthetic method with general-purpose LLMs yields a high-quality training quality. CAC-CoT achieves approximately 85% on GSM8K and approximately 40% on GPQA (System-2) while also achieving approximately 85% on S1-Bench (System-1), surpassing the baseline by over 20%. Its reasoning traces average approximately 300 tokens(ART), about one-third the length of baseline traces, delivering higher efficiency without loss of accuracy.
- Abstract(参考訳): ロングチェーン・オブ・思想(CoT)は、Large Language Models(LLM)が困難な問題を解決するのに役立つが、非常に長いトレースは、高速で直感的な"System-1"タスクのパフォーマンスを遅く、あるいは低下させる。
本稿では,コネクタ・アウェア・コンパクト CoT (CAC-CoT) について紹介する。コネクタ・アウェア・コンパクト CoT (CAC-CoT) は,コネクタ・コネクタ・コネクタ・コネクタ・コネクタ・コネクタ・コネクタ・コネクタ・コネクタ・コネクタ・コネクタ・コネクタ・コネクタ・コネクタ・コネクタ・コネクタ・コネクタ・コネクタ・コネクタ・コネクタ・コネクタ・コネクタ・コネクタ・コネクタ・コネ
その単純さにもかかわらず、汎用LLMを用いた合成法では、高品質なトレーニング品質が得られる。
CAC-CoTはGSM8Kで約85%、GPQA(System-2)で約40%、S1-Bench(System-1)で約85%、ベースラインを20%以上上回る。
その推論トレースは、平均300トークン(ART)であり、ベースライントレースの約3分の1の長さであり、精度を損なうことなく高い効率を実現する。
関連論文リスト
- Pruning the Unsurprising: Efficient Code Reasoning via First-Token Surprisal [13.035073453917088]
大規模推論モデル(LRM)は、Chain-of-Thought(CoT)の長さをスケールアップすることによって、コード推論において顕著な能力を示した。
我々は,CoT圧縮のための新しい粗大なフレームワークであるASAP(Anchor-guided, Surprisal-based Pruning)を提案する。
ASAPは、トレーニングと推論コストを大幅に削減しつつ、複数のコード生成ベンチマークで最先端の精度を実現している。
論文 参考訳(メタデータ) (2025-08-08T03:46:21Z) - Activation Steering for Chain-of-Thought Compression [4.825037489691159]
Activation-Steered Compression (ASC) は、隠れた表現を直接修正することで、推論トレースを短縮する推論時間技術である。
我々は, 冗長な英語重のCoTと簡潔な数学中心のCoTが, モデルの残差ストリーム活性化空間の異なる領域を占めることを観察した。
トレーニング不要の方法として、ASCは無視可能なオーバーヘッドを導入し、MATH500では、エンドツーエンドのウォールクロック実行時に平均2.73倍のスピードアップを提供する。
論文 参考訳(メタデータ) (2025-07-07T08:16:54Z) - Fractured Chain-of-Thought Reasoning [61.647243580650446]
完全CoTと解のみのサンプリングを補間する統合推論時間戦略であるフラクチャードサンプリングを導入する。
フラクチャードサンプリングは、Pass@kとトークンの予算に対して、急激なログ線形スケーリングゲインをもたらすため、優れた精度とコストのトレードオフを一貫して達成できることを示す。
論文 参考訳(メタデータ) (2025-05-19T11:30:41Z) - Efficient Reasoning Models: A Survey [52.96232442322824]
本調査は,近年の効率的な推論の進歩を包括的に概観することを目的としている。
1)短い圧縮CoTを簡潔で効果的な推論チェーンに、(2)より小さい - 強力な推論能力を持つコンパクトな言語モデルを開発する、(3)より高速に、という3つの重要な方向性に分類する。
論文 参考訳(メタデータ) (2025-04-15T06:28:00Z) - Z1: Efficient Test-time Scaling with Code [26.374317704720234]
大規模言語モデル(LLM)は、テスト時間コンピューティングのスケーリングを通じて、複雑な問題解決を実現することができる。
本稿では,LLMをコード関連推論軌道上で学習する効率的なテスト時間スケーリング手法を提案する。
オーバヘッドを過度に考慮する新しいシフトドシンキングウィンドウを提案する。
論文 参考訳(メタデータ) (2025-04-01T14:01:50Z) - CoT-Valve: Length-Compressible Chain-of-Thought Tuning [50.196317781229496]
我々はCoT-Valveと呼ばれる新しいチューニングと推論戦略を導入し、モデルが様々な長さの推論連鎖を生成できるようにする。
我々は,CoT-Valveがチェーンの制御性と圧縮性を実現し,プロンプトベース制御よりも優れた性能を示すことを示す。
論文 参考訳(メタデータ) (2025-02-13T18:52:36Z) - A Study of Different Ways to Use The Conformer Model For Spoken Language
Understanding [25.41993752756759]
我々は、ASRとNLUを結合する様々な方法、特に1つのコンフォーマーモデルを用いて比較する。
研究やアプリケーションに最適なシステムを決定する2段階の復号化システムとエンド・ツー・エンドシステムとの間には必ずしも選択肢がないことがわかった。
論文 参考訳(メタデータ) (2022-04-08T07:12:11Z) - Intermediate Loss Regularization for CTC-based Speech Recognition [58.33721897180646]
本稿では,コネクショニスト時間分類(CTC)の目的に基づいて,自動音声認識(ASR)のための簡易かつ効率的な補助的損失関数を提案する。
提案手法は,WSJコーパスの単語誤り率(WER)9.9%,AISHELL-1コーパスの文字誤り率(CER)5.2%である。
論文 参考訳(メタデータ) (2021-02-05T15:01:03Z) - Device-Robust Acoustic Scene Classification Based on Two-Stage
Categorization and Data Augmentation [63.98724740606457]
我々は,GT,USTC,Tencent,UKEの4つのグループからなる共同で,DCASE 2020 Challengeの第1タスク - 音響シーン分類(ASC)に取り組む。
タスク1aは、複数の(実とシミュレートされた)デバイスで記録されたオーディオ信号のASCを10種類の微細なクラスにフォーカスする。
Task 1bは、低複雑さのソリューションを使用して、データを3つの上位クラスに分類することに関心がある。
論文 参考訳(メタデータ) (2020-07-16T15:07:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。