論文の概要: Monitoring LLM-based Multi-Agent Systems Against Corruptions via Node Evaluation
- arxiv url: http://arxiv.org/abs/2510.19420v1
- Date: Wed, 22 Oct 2025 09:43:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:15.531835
- Title: Monitoring LLM-based Multi-Agent Systems Against Corruptions via Node Evaluation
- Title(参考訳): ノード評価によるLCMに基づくマルチエージェントシステムの破壊対策
- Authors: Chengcan Wu, Zhixin Zhang, Mingqian Xu, Zeming Wei, Meng Sun,
- Abstract要約: 大規模言語モデル(LLM)ベースのマルチエージェントシステム(MAS)は、AIアプリケーションの一般的なパラダイムとなっている。
我々は,MASグラフ内の通信を継続的に監視するMASグラフ構造に対する動的防御パラダイムを提案する。
本手法は既存のMAS防御機構を著しく上回り,信頼性の高いアプリケーションに有効なガードレールを提供する。
- 参考スコア(独自算出の注目度): 11.369402753246396
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Model (LLM)-based Multi-Agent Systems (MAS) have become a popular paradigm of AI applications. However, trustworthiness issues in MAS remain a critical concern. Unlike challenges in single-agent systems, MAS involve more complex communication processes, making them susceptible to corruption attacks. To mitigate this issue, several defense mechanisms have been developed based on the graph representation of MAS, where agents represent nodes and communications form edges. Nevertheless, these methods predominantly focus on static graph defense, attempting to either detect attacks in a fixed graph structure or optimize a static topology with certain defensive capabilities. To address this limitation, we propose a dynamic defense paradigm for MAS graph structures, which continuously monitors communication within the MAS graph, then dynamically adjusts the graph topology, accurately disrupts malicious communications, and effectively defends against evolving and diverse dynamic attacks. Experimental results in increasingly complex and dynamic MAS environments demonstrate that our method significantly outperforms existing MAS defense mechanisms, contributing an effective guardrail for their trustworthy applications. Our code is available at https://github.com/ChengcanWu/Monitoring-LLM-Based-Multi-Agent-Systems.
- Abstract(参考訳): 大規模言語モデル(LLM)ベースのマルチエージェントシステム(MAS)は、AIアプリケーションの一般的なパラダイムとなっている。
しかし、MASの信頼性問題は依然として重要な問題である。
単一エージェントシステムにおける課題とは異なり、MASはより複雑な通信プロセスを含み、汚職攻撃を受けやすい。
この問題を緩和するため、エージェントがノードと通信フォームエッジを表すMASのグラフ表現に基づいて、いくつかの防御機構が開発されている。
それにもかかわらず、これらの手法は主に静的グラフの防御に焦点を当てており、固定されたグラフ構造の攻撃を検知するか、特定の防御能力を持つ静的トポロジーを最適化しようとする。
この制限に対処するために,MASグラフ内の通信を継続的に監視し,グラフトポロジを動的に調整し,悪意のある通信を正確に破壊し,進化的かつ多様な動的攻撃に対して効果的に防御するMASグラフ構造の動的防御パラダイムを提案する。
より複雑でダイナミックなMAS環境における実験結果から,本手法は既存のMAS防御機構を著しく上回り,信頼性の高いアプリケーションに対する効果的なガードレールとなることが示された。
私たちのコードはhttps://github.com/ChengcanWu/Monitoring-LLM-Based-Multi-Agent-Systemsで利用可能です。
関連論文リスト
- Automated Cyber Defense with Generalizable Graph-based Reinforcement Learning Agents [7.45063623129985]
ディープ強化学習は、自動化サイバー防御のための実行可能な戦略として浮上している。
本研究では,ACDを文脈に基づく部分的に観測可能なマルコフ決定問題とみなす。
このアプローチは最先端技術よりも広いマージンで優れていることを示す。
論文 参考訳(メタデータ) (2025-09-19T16:57:27Z) - Searching for Privacy Risks in LLM Agents via Simulation [61.229785851581504]
本稿では,プライバシクリティカルなエージェントインタラクションのシミュレーションを通じて,攻撃と防御戦略の改善を交互に行う検索ベースのフレームワークを提案する。
攻撃戦略は、直接の要求から、不正行為や同意偽造といった高度な戦術へとエスカレートする。
発見された攻撃と防御は、さまざまなシナリオやバックボーンモデルにまたがって伝達され、プライバシーに配慮したエージェントを構築するための強力な実用性を示している。
論文 参考訳(メタデータ) (2025-08-14T17:49:09Z) - BlindGuard: Safeguarding LLM-based Multi-Agent Systems under Unknown Attacks [58.959622170433725]
BlindGuardは、攻撃固有のラベルや悪意のある振る舞いに関する事前の知識を必要とせずに学習する、教師なしの防御方法である。
BlindGuardはマルチエージェントシステムにまたがる多様な攻撃タイプ(即時注入、メモリ中毒、ツール攻撃)を効果的に検出する。
論文 参考訳(メタデータ) (2025-08-11T16:04:47Z) - AgentSight: System-Level Observability for AI Agents Using eBPF [10.37440633887049]
既存のツールは、エージェントの高レベルな意図(LSMプロンプトを介して)または低レベルな行動(例えば、システムコール)を観察するが、これら2つのビューを関連付けることはできない。
AgentOpsはハイブリッドアプローチを使用して,このセマンティックギャップをブリッジする,AgentOpsオブザーバビリティフレームワークです。
AgentSightはTLS暗号化されたLLMトラフィックをインターセプトしてセマンティックインテントを抽出し、カーネルイベントを監視してシステム全体の効果を観察し、これら2つのストリームをプロセス境界を越えて因果的に関連付ける。
論文 参考訳(メタデータ) (2025-08-02T01:43:39Z) - LaSM: Layer-wise Scaling Mechanism for Defending Pop-up Attack on GUI Agents [11.619180675940482]
マルチモーダル大言語モデル(MLLM)上に構築されたGUIエージェントは,画面ベースのインタラクションタスクにおいて,強力な意思決定能力を示している。
それらはポップアップベースの環境注入攻撃に対して非常に脆弱であり、悪意のある視覚要素が注意を分散させ、安全でないまたは誤った行動を引き起こす。
既存の防御方法は、コストのかかる再訓練を必要とするか、誘導的干渉下では不十分である。
本研究により,MLLMエージェントの注意欠陥は中核的な脆弱性であり,選択的層ワイド変調により効果的に対処できることが判明した。
論文 参考訳(メタデータ) (2025-07-13T08:36:09Z) - SentinelAgent: Graph-based Anomaly Detection in Multi-Agent Systems [11.497269773189254]
大規模言語モデル(LLM)に基づくマルチエージェントシステム(MAS)に適したシステムレベルの異常検出フレームワークを提案する。
本稿では,エージェント間相互作用を動的実行グラフとしてモデル化し,ノード,エッジ,パスレベルでの意味的異常検出を可能にするグラフベースのフレームワークを提案する。
第2に,セキュリティポリシとコンテキスト推論に基づくMAS実行の監視,解析,介入を行うLLMによる監視エージェントである,プラグイン可能なSentinelAgentを導入する。
論文 参考訳(メタデータ) (2025-05-30T04:25:19Z) - Dissecting Adversarial Robustness of Multimodal LM Agents [70.2077308846307]
我々は、VisualWebArena上に現実的な脅威モデルを用いて、200の敵タスクと評価スクリプトを手動で作成する。
我々は,クロボックスフロンティアLMを用いた最新のエージェントを,リフレクションやツリーサーチを行うエージェントを含む,壊すことに成功している。
AREを使用して、新しいコンポーネントの追加に伴うロバスト性の変化を厳格に評価しています。
論文 参考訳(メタデータ) (2024-06-18T17:32:48Z) - Everything Perturbed All at Once: Enabling Differentiable Graph Attacks [61.61327182050706]
グラフニューラルネットワーク(GNN)は敵の攻撃に弱いことが示されている。
本稿では,DGA(Dariable Graph Attack)と呼ばれる新しい攻撃手法を提案し,効果的な攻撃を効率的に生成する。
最先端と比較して、DGAは6倍のトレーニング時間と11倍のGPUメモリフットプリントでほぼ同等の攻撃性能を達成する。
論文 参考訳(メタデータ) (2023-08-29T20:14:42Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。