論文の概要: MTQA:Matrix of Thought for Enhanced Reasoning in Complex Question Answering
- arxiv url: http://arxiv.org/abs/2509.03918v1
- Date: Thu, 04 Sep 2025 06:13:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-05 20:21:10.072498
- Title: MTQA:Matrix of Thought for Enhanced Reasoning in Complex Question Answering
- Title(参考訳): MTQA:複雑な質問応答における推論強化のための思考のマトリックス
- Authors: Fengxiao Tang, Yufeng Li, Zongzong Wu, Ming Zhao,
- Abstract要約: Matrix of Thought (MoT) は、新規かつ効率的なLLM思考構造である。
MoTは「カラムセル通信」機構を通じて水平次元と垂直次元の両方の問題を探索する。
我々は,検索した知識グラフと生テキストから知識単位を構築することにより,事実補正機構を開発する。
- 参考スコア(独自算出の注目度): 12.367338145491212
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Complex Question Answering (QA) is a fundamental and challenging task in NLP. While large language models (LLMs) exhibit impressive performance in QA, they suffer from significant performance degradation when facing complex and abstract QA tasks due to insufficient reasoning capabilities. Works such as Chain-of-Thought (CoT) and Tree-of-Thought (ToT) aim to enhance LLMs' reasoning abilities, but they face issues such as in-layer redundancy in tree structures and single paths in chain structures. Although some studies utilize Retrieval-Augmented Generation (RAG) methods to assist LLMs in reasoning, the challenge of effectively utilizing large amounts of information involving multiple entities and hops remains critical. To address this, we propose the Matrix of Thought (MoT), a novel and efficient LLM thought structure. MoT explores the problem in both horizontal and vertical dimensions through the "column-cell communication" mechanism, enabling LLMs to actively engage in multi-strategy and deep-level thinking, reducing redundancy within the column cells and enhancing reasoning capabilities. Furthermore, we develop a fact-correction mechanism by constructing knowledge units from retrieved knowledge graph triples and raw text to enhance the initial knowledge for LLM reasoning and correct erroneous answers. This leads to the development of an efficient and accurate QA framework (MTQA). Experimental results show that our framework outperforms state-of-the-art methods on four widely-used datasets in terms of F1 and EM scores, with reasoning time only 14.4\% of the baseline methods, demonstrating both its efficiency and accuracy. The code for this framework is available at https://github.com/lyfiter/mtqa.
- Abstract(参考訳): 複雑質問回答(QA)はNLPの基本的かつ困難な課題である。
大規模言語モデル(LLM)はQAにおいて顕著なパフォーマンスを示すが、推論能力の不足により複雑で抽象的なQAタスクに直面した場合、パフォーマンスが著しく低下する。
CoT(Chain-of-Thought)やToT(Tree-of-Thought)といった研究は、LSMの推論能力を高めることを目的としているが、木構造における層内冗長性やチェーン構造の単一経路といった問題に直面している。
しかし,複数のエンティティやホップを含む大量の情報を効果的に活用することの難しさはいまだに重要である。
そこで本研究では,思考のマトリックス (MoT) を提案する。
MoTは「カラムセル通信」機構を通じて水平と垂直の両次元の問題を探究し、LCMが多戦略および深層思考に積極的に関与し、カラムセル内の冗長性を低減し、推論能力を向上させる。
さらに,検索した知識グラフと生テキストから知識単位を構築し,LCM推論の初期知識を高め,誤った回答を正すファクト補正機構を開発する。
これは効率的かつ正確なQAフレームワーク(MTQA)の開発につながります。
実験結果から,本フレームワークはF1とEMスコアの点で4つの広く使用されているデータセットの最先端手法よりも優れており,推論時間は基準手法の14.4\%に過ぎず,その効率と精度の両立が示されている。
このフレームワークのコードはhttps://github.com/lyfiter/mtqa.comで入手できる。
関連論文リスト
- DAGR: Decomposition Augmented Graph Retrieval with LLMs [1.034893617526558]
DAGRは、複雑な質問と、関連するリンクされたサブグラフを抽出するサブクエストにおけるそれらの分解の両方を活用する検索手法である。
結果として得られるGraph-RAGパイプラインは、複雑なマルチホップ質問の処理と、グラフ構造化データに対する効果的な推論に適している。
DAGRを標準マルチホップQAベンチマークで評価し、競合する既存手法に匹敵する性能または優れた性能を発揮することを示す。
論文 参考訳(メタデータ) (2025-06-16T11:44:28Z) - Re-ranking Reasoning Context with Tree Search Makes Large Vision-Language Models Stronger [51.01841635655944]
大規模視覚言語モデル(LVLM)の最近の進歩は、視覚質問応答(VQA)タスクのパフォーマンスを著しく改善している。
既存の手法は、推論例による知識の不足や、抽出された知識からの不規則な応答など、依然として課題に直面している。
我々は、Reasoning Context-enriched knowledge baseとTree Search re-level methodを構築し、LVLMを強化したRCTSと呼ばれるマルチモーダルRAGフレームワークを提案する。
論文 参考訳(メタデータ) (2025-06-09T14:00:57Z) - Computational Thinking Reasoning in Large Language Models [69.28428524878885]
計算思考モデル(CTM)は、計算思考パラダイムを大規模言語モデル(LLM)に組み込んだ新しいフレームワークである。
ライブコード実行は推論プロセスにシームレスに統合され、CTMが計算によって考えることができる。
CTMは、精度、解釈可能性、一般化可能性の観点から、従来の推論モデルとツール拡張ベースラインを上回っている。
論文 参考訳(メタデータ) (2025-06-03T09:11:15Z) - Forest-of-Thought: Scaling Test-Time Compute for Enhancing LLM Reasoning [40.069109287947875]
我々はフォレスト・オブ・サート(FoT)と呼ばれる新しい推論フレームワークを提案する。
FoTは複数の推論木を統合し、複雑な論理問題を解くために集合的な意思決定を活用する。
FoTは、最も関連性の高い推論パスを選択するためにスパースアクティベーション戦略を採用し、効率と精度の両方を改善している。
論文 参考訳(メタデータ) (2024-12-12T09:01:18Z) - Make LLMs better zero-shot reasoners: Structure-orientated autonomous reasoning [52.83539473110143]
本稿では,Large Language Models (LLM) の質問をよりよく理解するための構造指向分析手法を提案する。
複雑な質問応答タスクの信頼性をさらに向上するために,多エージェント推論システム,構造指向自律推論エージェント(SARA)を提案する。
大規模な実験により,提案システムの有効性が検証された。
論文 参考訳(メタデータ) (2024-10-18T05:30:33Z) - MindStar: Enhancing Math Reasoning in Pre-trained LLMs at Inference Time [51.5039731721706]
MindStarは、大言語モデルの純粋に推論に基づく探索手法である。
推論タスクを探索問題として定式化し、最適な推論経路を特定するための2つの探索アイデアを提案する。
Llama-2-13BやMistral-7Bのようなオープンソースモデルの推論能力を大幅に向上させ、GPT-3.5やGrok-1に匹敵する性能を実現している。
論文 参考訳(メタデータ) (2024-05-25T15:07:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。