論文の概要: Adversarial Reinforcement Learning for Large Language Model Agent Safety
- arxiv url: http://arxiv.org/abs/2510.05442v1
- Date: Mon, 06 Oct 2025 23:09:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-08 17:57:08.018926
- Title: Adversarial Reinforcement Learning for Large Language Model Agent Safety
- Title(参考訳): 大規模言語モデルエージェント安全のための対立強化学習
- Authors: Zizhao Wang, Dingcheng Li, Vaishakh Keshava, Phillip Wallis, Ananth Balashankar, Peter Stone, Lukas Rutishauser,
- Abstract要約: 大きな言語モデル(LLM)エージェントは、複雑なタスクを完了するためにGoogle Searchのようなツールを利用することができる。
現在の防衛戦略は、既知の攻撃のデータセットに精巧なLLMエージェントを頼っている。
対戦型強化学習(RL)を両プレイヤーゼロサムゲームとして定式化して活用する新しいフレームワークであるエージェント安全のための敵強化学習(ARLAS)を提案する。
- 参考スコア(独自算出の注目度): 20.704989548285372
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Large Language Model (LLM) agents can leverage tools such as Google Search to complete complex tasks. However, this tool usage introduces the risk of indirect prompt injections, where malicious instructions hidden in tool outputs can manipulate the agent, posing security risks like data leakage. Current defense strategies typically rely on fine-tuning LLM agents on datasets of known attacks. However, the generation of these datasets relies on manually crafted attack patterns, which limits their diversity and leaves agents vulnerable to novel prompt injections. To address this limitation, we propose Adversarial Reinforcement Learning for Agent Safety (ARLAS), a novel framework that leverages adversarial reinforcement learning (RL) by formulating the problem as a two-player zero-sum game. ARLAS co-trains two LLMs: an attacker that learns to autonomously generate diverse prompt injections and an agent that learns to defend against them while completing its assigned tasks. To ensure robustness against a wide range of attacks and to prevent cyclic learning, we employ a population-based learning framework that trains the agent to defend against all previous attacker checkpoints. Evaluated on BrowserGym and AgentDojo, agents fine-tuned with ARLAS achieve a significantly lower attack success rate than the original model while also improving their task success rate. Our analysis further confirms that the adversarial process generates a diverse and challenging set of attacks, leading to a more robust agent compared to the base model.
- Abstract(参考訳): 大きな言語モデル(LLM)エージェントは、複雑なタスクを完了するためにGoogle Searchのようなツールを利用することができる。
しかし、このツールの使用は、ツール出力に隠された悪意のある命令がエージェントを操作でき、データ漏洩のようなセキュリティリスクを生じさせる間接的なプロンプトインジェクションのリスクをもたらす。
現在の防衛戦略は、通常、既知の攻撃のデータセットに微調整のLLMエージェントに依存する。
しかし、これらのデータセットの生成は手作業による攻撃パターンに依存しており、多様性を制限し、新しいプロンプトインジェクションに脆弱なエージェントを残している。
この制限に対処するために,2プレイヤーゼロサムゲームとして問題を定式化することにより,敵強化学習(RL)を活用する新しいフレームワークであるエージェント安全のための敵強化学習(ARLAS)を提案する。
ARLASは2つのLDMを共同で訓練する: 多様なプロンプトインジェクションを自律的に生成することを学ぶ攻撃者と、割り当てられたタスクを完了しながらそれらに対して防御することを学ぶエージェントである。
広範囲の攻撃に対して堅牢性を確保し、循環学習を防止するため、我々は、前回の攻撃チェックポイントに対する防御をエージェントに指示する集団ベースの学習フレームワークを採用した。
BrowserGymとAgentDojoを評価すると、ARLASで微調整されたエージェントは、元のモデルよりも攻撃成功率を著しく低くし、タスク成功率も向上する。
解析により, 敵の攻撃は多様かつ困難であり, 基本モデルと比較してより堅牢なエージェントとなることが確認された。
関連論文リスト
- AdvEvo-MARL: Shaping Internalized Safety through Adversarial Co-Evolution in Multi-Agent Reinforcement Learning [78.5751183537704]
AdvEvo-MARLは、タスクエージェントに安全性を内部化する、共進化型マルチエージェント強化学習フレームワークである。
外部ガードに頼るのではなく、AdvEvo-MARLは攻撃者と防御者を共同で最適化する。
論文 参考訳(メタデータ) (2025-10-02T02:06:30Z) - BlindGuard: Safeguarding LLM-based Multi-Agent Systems under Unknown Attacks [58.959622170433725]
BlindGuardは、攻撃固有のラベルや悪意のある振る舞いに関する事前の知識を必要とせずに学習する、教師なしの防御方法である。
BlindGuardはマルチエージェントシステムにまたがる多様な攻撃タイプ(即時注入、メモリ中毒、ツール攻撃)を効果的に検出する。
論文 参考訳(メタデータ) (2025-08-11T16:04:47Z) - AgentVigil: Generic Black-Box Red-teaming for Indirect Prompt Injection against LLM Agents [54.29555239363013]
本稿では,間接的なインジェクション脆弱性を自動的に検出し,悪用するための汎用的なブラックボックスファジリングフレームワークであるAgentVigilを提案する。
我々はAgentVigilをAgentDojoとVWA-advの2つの公開ベンチマークで評価し、o3-miniとGPT-4oに基づくエージェントに対して71%と70%の成功率を達成した。
攻撃を現実世界の環境に適用し、悪質なサイトを含む任意のURLに誘導するエージェントをうまく誘導する。
論文 参考訳(メタデータ) (2025-05-09T07:40:17Z) - AdvAgent: Controllable Blackbox Red-teaming on Web Agents [22.682464365220916]
AdvAgentは、Webエージェントを攻撃するためのブラックボックスのレッドチームフレームワークである。
強化学習に基づくパイプラインを使用して、敵のプロンプトモデルをトレーニングする。
慎重な攻撃設計では、エージェントの弱点を効果的に活用し、ステルス性と制御性を維持する。
論文 参考訳(メタデータ) (2024-10-22T20:18:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。