論文の概要: GHS-TDA: A Synergistic Reasoning Framework Integrating Global Hypothesis Space with Topological Data Analysis
- arxiv url: http://arxiv.org/abs/2602.09794v1
- Date: Tue, 10 Feb 2026 14:00:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-11 20:17:43.563514
- Title: GHS-TDA: A Synergistic Reasoning Framework Integrating Global Hypothesis Space with Topological Data Analysis
- Title(参考訳): GHS-TDA:地球仮説空間とトポロジカルデータ解析を統合した相乗的推論フレームワーク
- Authors: Jiaquan Zhang, Chaoning Zhang, Shuxu Chen, Xudong Wang, Zhenzhen Huang, Pengcheng Zheng, Shuai Yuan, Sheng Zheng, Qigan Sun, Jie Zou, Lik-Hang Lee, Yang Yang,
- Abstract要約: CoT (Chain-of-Thought) は,大規模言語モデル (LLM) の推論精度を大幅に向上することが示されている。
既存のCoTメソッドには2つの基本的な制限がある。
- 参考スコア(独自算出の注目度): 27.271992201673083
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Chain-of-Thought (CoT) has been shown to significantly improve the reasoning accuracy of large language models (LLMs) on complex tasks. However, due to the autoregressive, step-by-step generation paradigm, existing CoT methods suffer from two fundamental limitations. First, the reasoning process is highly sensitive to early decisions: once an initial error is introduced, it tends to propagate and amplify through subsequent steps, while the lack of a global coordination and revision mechanism makes such errors difficult to correct, ultimately leading to distorted reasoning chains. Second, current CoT approaches lack structured analysis techniques for filtering redundant reasoning and extracting key reasoning features, resulting in unstable reasoning processes and limited interpretability. To address these issues, we propose GHS-TDA. GHS-TDA first constructs a semantically enriched global hypothesis graph to aggregate, align, and coordinate multiple candidate reasoning paths, thereby providing alternative global correction routes when local reasoning fails. It then applies topological data analysis based on persistent homology to capture stable multi-scale structures, remove redundancy and inconsistencies, and extract a more reliable reasoning skeleton. By jointly leveraging reasoning diversity and topological stability, GHS-TDA achieves self-adaptive convergence, produces high-confidence and interpretable reasoning paths, and consistently outperforms strong baselines in terms of both accuracy and robustness across multiple reasoning benchmarks.
- Abstract(参考訳): CoT(Chain-of-Thought)は、複雑なタスクにおける大規模言語モデル(LLM)の推論精度を大幅に向上することが示されている。
しかし、自己回帰的なステップバイステップ生成パラダイムのため、既存のCoTメソッドには2つの基本的な制限がある。
第一に、推論プロセスは初期の決定に非常に敏感である: 最初のエラーが一度導入されると、その後のステップを通じて伝播し、増幅する傾向にあり、一方、グローバルな調整と修正機構の欠如により、そのようなエラーの修正が難しくなり、最終的に歪んだ推論連鎖が生じる。
第二に、現在のCoTアプローチでは、冗長な推論をフィルタリングし、重要な推論特徴を抽出する構造解析技術が欠けており、不安定な推論プロセスと限定的な解釈可能性をもたらす。
これらの課題に対処するため,GHS-TDAを提案する。
GHS-TDAはまず意味的にリッチなグローバル仮説グラフを構築し、複数の候補推論経路を集約、調整、コーディネートし、局所的推論が失敗したときに代替のグローバルな修正経路を提供する。
次に、永続的ホモロジーに基づくトポロジ的データ解析を適用し、安定したマルチスケール構造を捕捉し、冗長性と不整合を除去し、より信頼性の高い推論スケルトンを抽出する。
推論の多様性とトポロジ的安定性を共同で活用することにより、GHS-TDAは自己適応的な収束を実現し、高い信頼度と解釈可能な推論パスを生成し、複数の推論ベンチマークの正確性と堅牢性の両方の観点から、一貫して強いベースラインを上回ります。
関連論文リスト
- CoT-Seg: Rethinking Segmentation with Chain-of-Thought Reasoning and Self-Correction [50.67483317563736]
本稿では,段階的に考察し,必要な情報を検索し,結果を生成し,自己評価を行い,結果を洗練するシステムを提案する。
CoT-Segは、思考の連鎖推論と自己補正を組み合わせることで、推論セグメンテーションを再考する、トレーニング不要のフレームワークである。
論文 参考訳(メタデータ) (2026-01-24T11:41:54Z) - CoG: Controllable Graph Reasoning via Relational Blueprints and Failure-Aware Refinement over Knowledge Graphs [53.199517625701475]
CoGはDual-Process Theoryにインスパイアされたトレーニング不要のフレームワークで、直観と熟考の相互作用を模倣している。
CoGは精度と効率の両方において最先端のアプローチを著しく上回っている。
論文 参考訳(メタデータ) (2026-01-16T07:27:40Z) - EntroCoT: Enhancing Chain-of-Thought via Adaptive Entropy-Guided Segmentation [18.606842425858]
CoT(Chain-of-Thought)の促進により、大規模言語モデルの数学的推論能力が大幅に向上した。
既存の微調整データセットは、しばしば"答えは正しいが間違った理由"プローブに悩まされる。
本稿では,高品質なCoT監視トレースを自動的に識別し,精錬するための統合フレームワークであるEntroCoTを提案する。
論文 参考訳(メタデータ) (2026-01-07T10:02:27Z) - Understanding Chain-of-Thought in Large Language Models via Topological Data Analysis [28.69471462319666]
この研究は、構造的観点から推論チェーンの品質を分析し評価した最初のものである。
推論ステップを意味空間にマップし、トポロジ的特徴を抽出し、構造的変化を分析する。
その結果, 推論鎖のトポロジカルな構造複雑性は, 正の相関関係があることが示唆された。
論文 参考訳(メタデータ) (2025-12-22T08:28:08Z) - Scaling Code-Assisted Chain-of-Thoughts and Instructions for Model Reasoning [65.20602712957725]
Cacoは、高品質で検証可能な多様な命令-CoT推論データの合成を自動化する新しいフレームワークである。
我々の研究は、人間の介入なしに自己持続的で信頼できる推論システムを構築するためのパラダイムを確立します。
論文 参考訳(メタデータ) (2025-10-05T07:59:24Z) - SIM-CoT: Supervised Implicit Chain-of-Thought [108.30049193668083]
Implicit Chain-of-Thought(CoT)メソッドは、大規模言語モデルにおける明示的なCoT推論に代わるトークン効率の代替手段を提供する。
暗黙的なCoTの計算予算をスケールする際の中核的な不安定性問題を特定する。
そこで我々はSIM-CoTを提案する。SIM-CoTは,遅延推論空間を安定化・拡張するためのステップレベルの監視を実現するモジュールである。
論文 参考訳(メタデータ) (2025-09-24T17:01:32Z) - CTRLS: Chain-of-Thought Reasoning via Latent State-Transition [57.51370433303236]
チェーン・オブ・シント(CoT)推論は、大規模な言語モデルで複雑な問題を解釈可能な中間ステップに分解することを可能にする。
我々は,遅延状態遷移を伴うマルコフ決定プロセス(MDP)としてCoT推論を定式化するフレームワークであるgroundingSを紹介する。
我々は、ベンチマーク推論タスクにおける推論精度、多様性、探索効率の改善を示す。
論文 参考訳(メタデータ) (2025-07-10T21:32:18Z) - Adaptive Termination for Multi-round Parallel Reasoning: An Universal Semantic Entropy-Guided Framework [12.361554676966552]
大規模言語モデル(LLM)の最近の進歩は、人工知能への進歩を加速させている。
逐次的および並列的推論パラダイムの相補的な長所を生かしたフレキシブルなテスト時協調推論フレームワークを設計することを目指している。
論文 参考訳(メタデータ) (2025-07-09T13:28:35Z) - Stepwise Reasoning Checkpoint Analysis: A Test Time Scaling Method to Enhance LLMs' Reasoning [81.50681925980135]
本稿では,ステップワイズ推論チェックポイント分析(SRCA)を提案する。
本研究は,(1)中間チェックポイント回答による経路推論をグループ化して品質を確保しつつ多様性を維持するAnswer-Clustered Search,(2)最終決定にすべての中間回答を活用するCheckpoint Candidate Augmentationの2つの主要な戦略を取り入れた。
提案手法は経路均質化を効果的に低減し,高品質な中間結果を活用することにより耐故障機構を創出する。
論文 参考訳(メタデータ) (2025-05-23T12:42:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。