論文の概要: The Multi-Agent Fault Localization System Based on Monte Carlo Tree Search Approach
- arxiv url: http://arxiv.org/abs/2507.22800v1
- Date: Wed, 30 Jul 2025 16:03:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-31 16:14:18.320223
- Title: The Multi-Agent Fault Localization System Based on Monte Carlo Tree Search Approach
- Title(参考訳): モンテカルロ木探索手法に基づくマルチエージェント断層定位システム
- Authors: Rui Ren,
- Abstract要約: 大規模言語モデル(LLM)は、インシデントを素早く見つけてリカバリするための新しいパスを提供する。
本手法は根本原因の局在精度を49.29%から128.35%向上させる。
- 参考スコア(独自算出の注目度): 2.4898626838193647
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In real-world scenarios, due to the highly decoupled and flexible nature of microservices, it poses greater challenges to system reliability. The more frequent occurrence of incidents has created a demand for Root Cause Analysis(RCA) methods that enable rapid identification and recovery of incidents. Large language model (LLM) provides a new path for quickly locating and recovering from incidents by leveraging their powerful generalization ability combined with expert experience. Current LLM for RCA frameworks are based on ideas like ReAct and Chain-of-Thought, but the hallucination of LLM and the propagation nature of anomalies often lead to incorrect localization results. Moreover, the massive amount of anomalous information generated in large, complex systems presents a huge challenge for the context window length of LLMs. To address these challenges, we propose KnowledgeMind, an innovative LLM multi-agent system based on Monte Carlo Tree Search and a knowledge base reward mechanism for standardized service-by-service reasoning. Compared to State-Of-The-Art(SOTA) LLM for RCA methods, our service-by-service exploration approach significantly reduces the burden on the maximum context window length, requiring only one-tenth of its size. Additionally, by incorporating a rule-based real-time reward mechanism, our method effectively mitigates hallucinations during the inference process. Compared to the SOTA LLM for RCA framework, our method achieves a 49.29% to 128.35% improvement in root cause localization accuracy.
- Abstract(参考訳): 現実のシナリオでは、マイクロサービスの高度に分離された柔軟な性質のため、システムの信頼性に大きな課題が生じる。
より頻繁なインシデントの発生は、インシデントの迅速な識別と回復を可能にするルート原因分析(RCA)手法の要求を生み出した。
大規模言語モデル(LLM)は、エキスパートエクスペリエンスと組み合わせた強力な一般化能力を活用することで、インシデントを素早く見つけ、回復するための新しいパスを提供する。
現在のRCAフレームワークのLLMはReActやChain-of-Thoughtといったアイデアに基づいているが、LLMの幻覚と異常の伝播の性質は、しばしば不正確なローカライゼーション結果をもたらす。
さらに,LLMのコンテキストウィンドウ長において,大規模で複雑なシステムで発生する大量の異常情報が大きな課題となっている。
これらの課題に対処するために,モンテカルロ木探索に基づく革新的なLLMマルチエージェントシステムであるKnowledgeMindと,標準化されたサービス・バイ・サービス推論のための知識ベース報酬機構を提案する。
RCA法における State-Of-The-Art(SOTA) LLM と比較して,サービス・バイ・サービスの探索手法は最大コンテキストウィンドウ長の負担を著しく低減し,そのサイズはわずか10分の1である。
さらに,ルールに基づくリアルタイム報酬機構を組み込むことで,推論過程における幻覚を効果的に緩和する。
RCAフレームワークのSOTA LLMと比較して,根本原因の局在精度は49.29%から128.35%向上した。
関連論文リスト
- Re-ranking Reasoning Context with Tree Search Makes Large Vision-Language Models Stronger [51.01841635655944]
大規模視覚言語モデル(LVLM)の最近の進歩は、視覚質問応答(VQA)タスクのパフォーマンスを著しく改善している。
既存の手法は、推論例による知識の不足や、抽出された知識からの不規則な応答など、依然として課題に直面している。
我々は、Reasoning Context-enriched knowledge baseとTree Search re-level methodを構築し、LVLMを強化したRCTSと呼ばれるマルチモーダルRAGフレームワークを提案する。
論文 参考訳(メタデータ) (2025-06-09T14:00:57Z) - LLMs are Greedy Agents: Effects of RL Fine-tuning on Decision-Making Abilities [21.42711537107199]
我々は,Large Language Models (LLMs) が意思決定シナリオにおいてサブ最適に機能する理由を考察する。
自己生成型CoT論理の強化学習(Reinforcement Learning, RL)による微調整によるこれらの欠点の緩和を提案する。
論文 参考訳(メタデータ) (2025-04-22T17:57:14Z) - MCTS-RAG: Enhancing Retrieval-Augmented Generation with Monte Carlo Tree Search [27.378904180238557]
本稿では,知識集約型タスクにおける小言語モデルの推論能力を高める新しいアプローチであるMCTS-RAGを紹介する。
通常、推論から独立して情報を取得する標準的なRAG法とは異なり、MCTS-RAGは構造化推論と適応的検索を組み合わせる。
この統合されたアプローチは意思決定を強化し、幻覚を減らし、事実の正確性と応答の整合性を向上させる。
論文 参考訳(メタデータ) (2025-03-26T17:46:08Z) - LoRASculpt: Sculpting LoRA for Harmonizing General and Specialized Knowledge in Multimodal Large Language Models [61.96237184081951]
Low-Rank Adaptation (LoRA)はマルチモーダル大規模言語モデル(MLLM)における専門知識の獲得に広く利用されている。
LoRAは、視覚的インストラクションチューニング中にかなり有害な冗長性を導入し、一般的な知識の忘れを悪化させ、下流のタスク性能を低下させる。
有害な冗長パラメータを排除し,一般知識と専門知識の調和を図るため,LoRASculptを提案する。
論文 参考訳(メタデータ) (2025-03-21T04:31:09Z) - R1-Searcher: Incentivizing the Search Capability in LLMs via Reinforcement Learning [87.30285670315334]
textbfR1-Searcherは、大規模言語モデルの検索能力を高めるために設計された、2段階の結果に基づく新しいRLアプローチである。
本フレームワークは, コールドスタート時に, プロセス報酬や蒸留を必要とせず, RLのみに依存している。
提案手法は, クローズドソースGPT-4o-miniと比較して, 従来の強力なRAG法よりも有意に優れていた。
論文 参考訳(メタデータ) (2025-03-07T17:14:44Z) - RAG-Star: Enhancing Deliberative Reasoning with Retrieval Augmented Verification and Refinement [85.08223786819532]
既存の大規模言語モデル(LLM)は、例外的な問題解決能力を示すが、複雑な推論タスクに苦労する可能性がある。
検索情報を統合した新しいRAG手法である textbfRAG-Star を提案する。
Llama-3.1-8B-Instruct と GPT-4o を併用した実験により,RAG-Star は従来のRAG と推理法を著しく上回っていることが示された。
論文 参考訳(メタデータ) (2024-12-17T13:05:36Z) - Search-in-the-Chain: Interactively Enhancing Large Language Models with
Search for Knowledge-intensive Tasks [121.74957524305283]
本稿では、情報検索(IR)とLarge Language Model(LLM)のインタラクションのための、textbfSearch-in-the-Chain(SearChain)という新しいフレームワークを提案する。
実験の結果、SearChainは複雑な知識集約タスクにおける最先端のベースラインを上回っていることがわかった。
論文 参考訳(メタデータ) (2023-04-28T10:15:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。