論文の概要: ThinkFL: Self-Refining Failure Localization for Microservice Systems via Reinforcement Fine-Tuning
- arxiv url: http://arxiv.org/abs/2504.18776v1
- Date: Sat, 26 Apr 2025 03:08:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:53.985729
- Title: ThinkFL: Self-Refining Failure Localization for Microservice Systems via Reinforcement Fine-Tuning
- Title(参考訳): ThinkFL: Reinforcement Fine-Tuningによるマイクロサービスシステムの自己精錬障害のローカライゼーション
- Authors: Lingzhe Zhang, Yunpeng Zhai, Tong Jia, Chiming Duan, Siyu Yu, Jinyang Gao, Bolin Ding, Zhonghai Wu, Ying Li,
- Abstract要約: 小さなモデルに基づく従来の障害ローカライゼーションアプローチでは、さまざまな障害シナリオに適応する柔軟性が欠如しています。
本稿では,多要素障害の局所化と再帰的アクターモジュールを統合した,プログレッシブな多段階GRPO微調整フレームワークを提案する。
得られたモデルであるThinkFLは、既存の最先端のLCMやベースラインメソッドよりもローカライズ精度が高いが、エンドツーエンドのローカライズ遅延を数分から秒に短縮する。
- 参考スコア(独自算出の注目度): 31.89194823470957
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As modern microservice systems grow increasingly popular and complex-often consisting of hundreds or even thousands of fine-grained, interdependent components-they are becoming more susceptible to frequent and subtle failures. Ensuring system reliability therefore hinges on accurate and efficient failure localization. Traditional failure localization approaches based on small models lack the flexibility to adapt to diverse failure scenarios, while recent LLM-based methods suffer from two major limitations: they often rely on rigid invocation workflows that constrain the model's ability to dynamically explore optimal localization paths, and they require resource-intensive inference, making them cost-prohibitive for real-world deployment. To address these challenges, we explore the use of reinforcement fine-tuning to equip lightweight LLMs with reasoning and self-refinement capabilities, significantly improving the cost-effectiveness and adaptability of LLM-based failure localization. We begin with an empirical study to identify three key capabilities essential for accurate localization. Building on these insights, we propose a progressive multi-stage GRPO fine-tuning framework, which integrates a multi-factor failure localization grader and a recursion-of-thought actor module. The resulting model, ThinkFL, not only outperforms existing state-of-the-art LLMs and baseline methods in localization accuracy but also reduces end-to-end localization latency from minutes to seconds, demonstrating strong potential for real-world applications.
- Abstract(参考訳): 現代のマイクロサービスシステムがますます人気を増し、何百、何千ものきめ細かなコンポーネントで構成され、複雑化するにつれて、相互依存コンポーネントは、頻繁で微妙な障害に対してより影響を受けやすくなっています。
したがって、システムの信頼性を確保することは、正確で効率的な障害のローカライゼーションに依存する。
従来の小さなモデルに基づく障害ローカライゼーションアプローチでは、さまざまな障害シナリオに適応する柔軟性が欠如しているのに対して、最近のLCMベースの手法では、2つの大きな制限がある。
これらの課題に対処するために,軽量LLMに推論と自己補充機能を持たせるための強化微調整の活用について検討し,LLMに基づく障害局所化の費用対効果と適応性を大幅に向上させた。
まず、正確な位置決めに不可欠な3つの重要な機能を特定するための実証的研究から始める。
これらの知見に基づいて,多要素障害ローカライゼーショングレーダと再帰的アクタモジュールを統合した,プログレッシブな多段階GRPO微調整フレームワークを提案する。
得られたモデルであるThinkFLは、既存の最先端のLCMやベースラインメソッドをローカライズ精度で上回るだけでなく、エンドツーエンドのローカライズ遅延を数分から秒に短縮し、現実世界のアプリケーションに強力な可能性を示す。
関連論文リスト
- Throughput-Optimal Scheduling Algorithms for LLM Inference and AI Agents [6.318292471845427]
我々は,大規模言語モデル(LLM)推論のための待ち行列の基礎を開発する。
大規模な'作業保守'スケジューリングアルゴリズムが最大スループットを達成できることを実証する。
論文 参考訳(メタデータ) (2025-04-10T00:12:12Z) - R1-Searcher: Incentivizing the Search Capability in LLMs via Reinforcement Learning [87.30285670315334]
textbfR1-Searcherは、大規模言語モデルの検索能力を高めるために設計された、2段階の結果に基づく新しいRLアプローチである。
本フレームワークは, コールドスタート時に, プロセス報酬や蒸留を必要とせず, RLのみに依存している。
提案手法は, クローズドソースGPT-4o-miniと比較して, 従来の強力なRAG法よりも有意に優れていた。
論文 参考訳(メタデータ) (2025-03-07T17:14:44Z) - Confident or Seek Stronger: Exploring Uncertainty-Based On-device LLM Routing From Benchmarking to Generalization [61.02719787737867]
大規模言語モデル(LLM)はますますエッジデバイスにデプロイされ、民主化されている。
1つの有望な解決策は不確実性に基づくSLMルーティングであり、SLM上での低信頼応答が発生すると、高い要求を強いLCMにオフロードする。
我々は1500以上の設定でSLMからLLMへの不確実性駆動型ルーティング戦略のベンチマークと一般化を包括的に調査する。
論文 参考訳(メタデータ) (2025-02-06T18:59:11Z) - Adversarial Reasoning at Jailbreaking Time [49.70772424278124]
テスト時間計算による自動ジェイルブレイクに対する逆推論手法を開発した。
我々のアプローチは、LSMの脆弱性を理解するための新しいパラダイムを導入し、より堅牢で信頼性の高いAIシステムの開発の基礎を築いた。
論文 参考訳(メタデータ) (2025-02-03T18:59:01Z) - GUIDE: A Global Unified Inference Engine for Deploying Large Language Models in Heterogeneous Environments [1.0558515062670693]
現実世界のシナリオにおける大規模言語モデル(LLM)は依然として重要な課題である。
これらの課題は、しばしばメモリ使用率、レイテンシ、スループットの非効率につながる。
バッチレイテンシ、TTFT、デコードスループットといった主要なメトリクスに対して、予測エラーを9.9%から42.3%の精度で達成し、これらの問題に対処するフレームワークを開発する。
論文 参考訳(メタデータ) (2024-12-06T05:46:43Z) - Efficient Self-Improvement in Multimodal Large Language Models: A Model-Level Judge-Free Approach [31.654345704242512]
本稿では,新しいモデルレベルの判断自由自己改善フレームワークを提案する。
本手法では,検証ループにおけるMLLMの必要性を解消しつつ,制御されたフィードバック機構を用いる。
計算要求が大幅に小さく、精度とリコールの精度が向上する。
論文 参考訳(メタデータ) (2024-11-26T00:44:37Z) - AmoebaLLM: Constructing Any-Shape Large Language Models for Efficient and Instant Deployment [13.977849745488339]
AmoebaLLMは任意の形状の大規模言語モデルの即時導出を可能にする新しいフレームワークである。
AmoebaLLMは、様々なプラットフォームやアプリケーションに適した迅速なデプロイメントを著しく促進する。
論文 参考訳(メタデータ) (2024-11-15T22:02:28Z) - Read-ME: Refactorizing LLMs as Router-Decoupled Mixture of Experts with System Co-Design [59.00758127310582]
本稿では、事前学習された高密度LCMをより小さなMoEモデルに変換する新しいフレームワークRead-MEを提案する。
当社のアプローチでは,専門家の抽出にアクティベーション空間を用いる。
Read-MEは、同様のスケールの他の人気のあるオープンソース高密度モデルよりも優れています。
論文 参考訳(メタデータ) (2024-10-24T19:48:51Z) - VinePPO: Unlocking RL Potential For LLM Reasoning Through Refined Credit Assignment [66.80143024475635]
VinePPOは不偏のモンテカルロ推定を計算するための簡単な手法である。
我々は、VinePPOが、MATHおよびGSM8Kデータセット間でPPOや他のRLフリーベースラインを一貫して上回ることを示す。
論文 参考訳(メタデータ) (2024-10-02T15:49:30Z) - A Multi-Agent Approach to Fault Localization via Graph-Based Retrieval and Reflexion [8.22737389683156]
従来のフォールトローカライゼーション技術は、広範なトレーニングデータセットと高い計算資源を必要とする。
大規模言語モデル(LLM)の最近の進歩は、コード理解と推論を強化することで、新たな機会を提供する。
LLM4FLは3つの特殊なLLMエージェントを利用するマルチエージェントの故障局所化フレームワークである。
14のJavaプロジェクトから675の障害を含むDefects4Jベンチマークで評価され、LLM4FLはAutoFLよりも18.55%、SoapFLより4.82%、Top-1の精度が18.55%向上した。
論文 参考訳(メタデータ) (2024-09-20T16:47:34Z) - Characterization of Large Language Model Development in the Datacenter [55.9909258342639]
大きな言語モデル(LLM)は、いくつかの変換タスクにまたがって素晴らしいパフォーマンスを示している。
しかし,大規模クラスタ資源を効率よく利用してLCMを開発することは容易ではない。
我々は,GPUデータセンタAcmeから収集した6ヶ月のLDM開発ワークロードの詳細な評価を行った。
論文 参考訳(メタデータ) (2024-03-12T13:31:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。