論文の概要: Enhancing Robustness of LLM-Driven Multi-Agent Systems through Randomized Smoothing
- arxiv url: http://arxiv.org/abs/2507.04105v1
- Date: Sat, 05 Jul 2025 17:26:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-08 15:46:35.017075
- Title: Enhancing Robustness of LLM-Driven Multi-Agent Systems through Randomized Smoothing
- Title(参考訳): ランダム化平滑化によるLCM駆動多エージェントシステムのロバスト性向上
- Authors: Jinwei Hu, Yi Dong, Zhengtao Ding, Xiaowei Huang,
- Abstract要約: 本稿では,大型言語モデル(LLM)の安全性向上のための枠組みとして,航空宇宙などの安全クリティカル領域におけるマルチエージェントシステム(MAS)について述べる。
統計的ロバスト性証明手法であるランダム化スムーシングをMASコンセンサス・コンテキストに適用し、敵の影響下でのエージェント決定に対する確率的保証を可能にする。
- 参考スコア(独自算出の注目度): 13.997409139696556
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents a defense framework for enhancing the safety of large language model (LLM) empowered multi-agent systems (MAS) in safety-critical domains such as aerospace. We apply randomized smoothing, a statistical robustness certification technique, to the MAS consensus context, enabling probabilistic guarantees on agent decisions under adversarial influence. Unlike traditional verification methods, our approach operates in black-box settings and employs a two-stage adaptive sampling mechanism to balance robustness and computational efficiency. Simulation results demonstrate that our method effectively prevents the propagation of adversarial behaviors and hallucinations while maintaining consensus performance. This work provides a practical and scalable path toward safe deployment of LLM-based MAS in real-world, high-stakes environments.
- Abstract(参考訳): 本稿では,大言語モデル(LLM)による航空宇宙等の安全クリティカル領域におけるマルチエージェントシステム(MAS)の安全性向上のための防衛フレームワークを提案する。
統計的ロバスト性証明手法であるランダム化スムーシングをMASコンセンサス・コンテキストに適用し、敵の影響下でのエージェント決定に対する確率的保証を可能にする。
従来の検証手法とは異なり,本手法はブラックボックス設定で動作し,ロバスト性と計算効率のバランスをとるために2段階適応サンプリング機構を用いる。
シミュレーションの結果,コンセンサス性能を維持しつつ,敵対行動や幻覚の伝播を効果的に防止できることが示された。
本研究は, LLM ベースのMAS を実環境, ハイテイク環境に安全に展開する上で, 実用的でスケーラブルな経路を提供する。
関連論文リスト
- ICLShield: Exploring and Mitigating In-Context Learning Backdoor Attacks [61.06621533874629]
In-context Learning (ICL)は、大規模言語モデル(LLM)において顕著な成功を収めた。
本稿では,LLMがタスク関連潜伏概念とバックドア関連潜伏概念の両方を同時に学習する,という二重学習仮説を初めて提案する。
そこで本研究では,概念選好比を動的に調整する防衛機構であるICLShieldを提案する。
論文 参考訳(メタデータ) (2025-07-02T03:09:20Z) - Learning Efficient Flocking Control based on Gibbs Random Fields [8.715391538937707]
Gibbs Random Fields (GRF) を用いたマルチエージェント強化学習フレームワーク
アクションアテンションモジュールは、隣接するロボットの動作意図を暗黙的に予測するために導入される。
提案されたフレームワークは、成功率99%の挑戦的な環境で、マルチロボットシステムの効率的な分散制御ポリシーを学習することを可能にする。
論文 参考訳(メタデータ) (2025-02-05T08:27:58Z) - Scalable Safe Multi-Agent Reinforcement Learning for Multi-Agent System [1.0124625066746598]
報酬形成のみに依存する既存のマルチエージェント強化学習(MARL)アルゴリズムは、安全性を確保するのに有効ではない。
本稿では,MARL手法の安全性とスケーラビリティを高めるために,スケーラブルセーフMARL(Scalable Safe MARL)を提案する。
SS-MARLは,ベースラインに比べて最適性と安全性のトレードオフが良好であることを示し,そのスケーラビリティは多数のエージェントを持つシナリオにおいて,最新の手法よりも著しく優れていることを示す。
論文 参考訳(メタデータ) (2025-01-23T15:01:19Z) - Self-Supervised Inference of Agents in Trustless Environments [44.99833362998488]
本稿では,エージェントがSwarmを形成し,高品質な応答を効果的に生成する手法を提案する。
これはデータ推論とランク付けが可能なエージェントを活用することで実現される。
我々のアプローチは、125ミリ秒未満の検証レイテンシに達する他の信頼できない推論戦略よりも、桁違いに高速であることを示す。
論文 参考訳(メタデータ) (2024-09-12T20:32:07Z) - COMMIT: Certifying Robustness of Multi-Sensor Fusion Systems against
Semantic Attacks [24.37030085306459]
本稿では,マルチセンサ融合システムのセマンティックアタックに対する堅牢性を証明した最初のロバストネス認証フレームワークCOMMITを提案する。
特に,マルチモーダルデータを用いたランダム化平滑化を利用した実用的な異方性雑音機構を提案する。
MSFモデルの認証は、MSFモデルの利点を検証するシングルモーダルモデルよりも少なくとも48.39%高いことが示されている。
論文 参考訳(メタデータ) (2024-03-04T18:57:11Z) - SAFE-SIM: Safety-Critical Closed-Loop Traffic Simulation with Diffusion-Controllable Adversaries [94.84458417662407]
制御可能なクローズドループ安全クリティカルシミュレーションフレームワークであるSAFE-SIMを紹介する。
提案手法は,1)現実の環境を深く反映した現実的な長距離安全クリティカルシナリオの生成,2)より包括的でインタラクティブな評価のための制御可能な敵行動の提供,の2つの利点をもたらす。
複数のプランナにまたがるnuScenesとnuPlanデータセットを使用して、我々のフレームワークを実証的に検証し、リアリズムと制御性の両方の改善を実証した。
論文 参考訳(メタデータ) (2023-12-31T04:14:43Z) - Empowering Autonomous Driving with Large Language Models: A Safety Perspective [82.90376711290808]
本稿では,Large Language Models (LLM) の自律運転システムへの統合について検討する。
LLMは行動計画におけるインテリジェントな意思決定者であり、文脈的安全学習のための安全検証シールドを備えている。
適応型LLM条件モデル予測制御(MPC)と状態機械を用いたLLM対応対話型行動計画スキームという,シミュレーション環境における2つの重要な研究について述べる。
論文 参考訳(メタデータ) (2023-11-28T03:13:09Z) - Constrained Policy Optimization via Bayesian World Models [79.0077602277004]
LAMBDAは、マルコフ決定プロセスを通じてモデル化された安全クリティカルタスクにおけるポリシー最適化のためのモデルに基づくアプローチである。
LAMBDA のSafety-Gymベンチマークスイートにおける技術性能について,サンプル効率と制約違反の観点から示す。
論文 参考訳(メタデータ) (2022-01-24T17:02:22Z) - SAMBA: Safe Model-Based & Active Reinforcement Learning [59.01424351231993]
SAMBAは、確率論的モデリング、情報理論、統計学といった側面を組み合わせた安全な強化学習のためのフレームワークである。
我々は,低次元および高次元の状態表現を含む安全な力学系ベンチマークを用いて,アルゴリズムの評価を行った。
アクティブなメトリクスと安全性の制約を詳細に分析することで,フレームワークの有効性を直感的に評価する。
論文 参考訳(メタデータ) (2020-06-12T10:40:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。