論文の概要: Chain or tree? Re-evaluating complex reasoning from the perspective of a matrix of thought
- arxiv url: http://arxiv.org/abs/2509.03918v2
- Date: Fri, 26 Sep 2025 15:57:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-29 14:23:57.616368
- Title: Chain or tree? Re-evaluating complex reasoning from the perspective of a matrix of thought
- Title(参考訳): 連鎖か木か?思考の行列の観点からの複雑な推論の再評価
- Authors: Fengxiao Tang, Yufeng Li, Zongzong Wu, Ming Zhao,
- Abstract要約: 思考のマトリックス(MoT)は、大規模言語モデル(LLM)のための新規で効率的な思考構造である
MoTは「カラムセル通信」機構を通じて水平次元と垂直次元の両方の問題を探索する。
我々のフレームワークは最先端の手法より優れており、推論時間はベースライン手法の14.4%に過ぎない。
- 参考スコア(独自算出の注目度): 12.367338145491212
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) face significant accuracy degradation due to insufficient reasoning ability when dealing with complex and abstract tasks. Thought structures such as Chain of Thought (CoT) and Tree of Thought (ToT) focus on enhancing the reasoning capability of LLMs. However, they suffer from inherent drawbacks such as redundancy within the same layer of the tree structure and the singularity of the paths in the chain structure. Some studies have utilized Retrieval-Augmented Generation (RAG) methods to enhance CoT and ToT in mitigating hallucinations in LLMs, yet the fundamental shortcomings of the thought structures still persist. Furthermore, when dealing with multi-entity and multi-hop information, the retrieved verification knowledge often contains large amounts of fragmented, superficial, or even erroneous data, misleading the reasoning process of LLMs. To address these issues, we propose the Matrix of Thought (MoT), a novel and efficient thought structure for LLMs. MoT explores problems in both horizontal and vertical dimensions through a "column-cell communication" mechanism, enabling LLMs to actively engage in multi-strategy and deep thinking while reducing redundancy in the thought nodes within the column cells, thereby enhancing the reasoning capability of LLMs. Additionally, through a fact-correction mechanism, it leverages the knowledge graph triples retrieved by RAG and the original text to construct knowledge units and correct erroneous answers. To validate the effectiveness of this method, we conducted extensive experiments in three tasks: 24-point game, question answering evaluation, and proposition writing.The results demonstrate that our framework outperforms state-of-the-art methods, with reasoning time only 14.4\% of that of the baseline method, proving its efficiency and accuracy. The code for framework is available at https://github.com/lyfiter/mtqa.
- Abstract(参考訳): 大規模言語モデル(LLM)は、複雑で抽象的なタスクを扱う際に、推論能力が不十分なため、大幅な精度低下に直面します。
思考のチェーン(CoT)や思考のツリー(ToT)のような思考構造は、LLMの推論能力の向上に重点を置いている。
しかし、それらは木構造と同じ層内の冗長性や鎖構造内の経路の特異性といった固有の欠点に悩まされる。
いくつかの研究では、LLMの幻覚を緩和するために、Retrieval-Augmented Generation (RAG)法を利用してCoTとToTを増強しているが、基本的な欠点は今も残っている。
さらに、マルチエンタリティやマルチホップ情報を扱う場合、抽出された検証知識には、大量の断片化、表面的、あるいは誤ったデータが含まれており、LCMの推論過程を誤解させる。
これらの問題に対処するために,LLM の新規かつ効率的な思考構造である Matrix of Thought (MoT) を提案する。
MoTは「カラムセル通信」機構により水平と垂直の両次元の問題を探究し、LCMは列セル内の思考ノードの冗長性を低減しつつ、マルチストラテジーと深い思考を積極的に行うことができ、LCMの推論能力を高めることができる。
さらに、事実補正機構を通じて、RAGと原文が取得した知識グラフのトリプルを利用して、知識単位を構築し、誤った回答を正す。
提案手法の有効性を検証するため,24点ゲーム,質問応答評価,提案文の3つのタスクにおいて,本手法の有効性を検証した。
フレームワークのコードはhttps://github.com/lyfiter/mtqa.comで公開されている。
関連論文リスト
- DAGR: Decomposition Augmented Graph Retrieval with LLMs [1.034893617526558]
DAGRは、複雑な質問と、関連するリンクされたサブグラフを抽出するサブクエストにおけるそれらの分解の両方を活用する検索手法である。
結果として得られるGraph-RAGパイプラインは、複雑なマルチホップ質問の処理と、グラフ構造化データに対する効果的な推論に適している。
DAGRを標準マルチホップQAベンチマークで評価し、競合する既存手法に匹敵する性能または優れた性能を発揮することを示す。
論文 参考訳(メタデータ) (2025-06-16T11:44:28Z) - Re-ranking Reasoning Context with Tree Search Makes Large Vision-Language Models Stronger [51.01841635655944]
大規模視覚言語モデル(LVLM)の最近の進歩は、視覚質問応答(VQA)タスクのパフォーマンスを著しく改善している。
既存の手法は、推論例による知識の不足や、抽出された知識からの不規則な応答など、依然として課題に直面している。
我々は、Reasoning Context-enriched knowledge baseとTree Search re-level methodを構築し、LVLMを強化したRCTSと呼ばれるマルチモーダルRAGフレームワークを提案する。
論文 参考訳(メタデータ) (2025-06-09T14:00:57Z) - Computational Thinking Reasoning in Large Language Models [69.28428524878885]
計算思考モデル(CTM)は、計算思考パラダイムを大規模言語モデル(LLM)に組み込んだ新しいフレームワークである。
ライブコード実行は推論プロセスにシームレスに統合され、CTMが計算によって考えることができる。
CTMは、精度、解釈可能性、一般化可能性の観点から、従来の推論モデルとツール拡張ベースラインを上回っている。
論文 参考訳(メタデータ) (2025-06-03T09:11:15Z) - Forest-of-Thought: Scaling Test-Time Compute for Enhancing LLM Reasoning [40.069109287947875]
我々はフォレスト・オブ・サート(FoT)と呼ばれる新しい推論フレームワークを提案する。
FoTは複数の推論木を統合し、複雑な論理問題を解くために集合的な意思決定を活用する。
FoTは、最も関連性の高い推論パスを選択するためにスパースアクティベーション戦略を採用し、効率と精度の両方を改善している。
論文 参考訳(メタデータ) (2024-12-12T09:01:18Z) - Make LLMs better zero-shot reasoners: Structure-orientated autonomous reasoning [52.83539473110143]
本稿では,Large Language Models (LLM) の質問をよりよく理解するための構造指向分析手法を提案する。
複雑な質問応答タスクの信頼性をさらに向上するために,多エージェント推論システム,構造指向自律推論エージェント(SARA)を提案する。
大規模な実験により,提案システムの有効性が検証された。
論文 参考訳(メタデータ) (2024-10-18T05:30:33Z) - MindStar: Enhancing Math Reasoning in Pre-trained LLMs at Inference Time [51.5039731721706]
MindStarは、大言語モデルの純粋に推論に基づく探索手法である。
推論タスクを探索問題として定式化し、最適な推論経路を特定するための2つの探索アイデアを提案する。
Llama-2-13BやMistral-7Bのようなオープンソースモデルの推論能力を大幅に向上させ、GPT-3.5やGrok-1に匹敵する性能を実現している。
論文 参考訳(メタデータ) (2024-05-25T15:07:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。