論文の概要: Takedown: How It's Done in Modern Coding Agent Exploits
- arxiv url: http://arxiv.org/abs/2509.24240v1
- Date: Mon, 29 Sep 2025 03:27:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:19.723433
- Title: Takedown: How It's Done in Modern Coding Agent Exploits
- Title(参考訳): テイクダウン:現代のコーディングエージェントの爆発の仕方
- Authors: Eunkyu Lee, Donghyeon Kim, Wonyoung Kim, Insu Yun,
- Abstract要約: 本研究では,8つの実世界の符号化エージェントの総合的セキュリティ分析を行う。
ユーザシステムの機密性や整合性を損なうために悪用される可能性のある,これまで見過ごされあるいは見逃された問題を含む,15のセキュリティ問題を特定します。
- 参考スコア(独自算出の注目度): 11.214918024551638
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Coding agents, which are LLM-driven agents specialized in software development, have become increasingly prevalent in modern programming environments. Unlike traditional AI coding assistants, which offer simple code completion and suggestions, modern coding agents tackle more complex tasks with greater autonomy, such as generating entire programs from natural language instructions. To enable such capabilities, modern coding agents incorporate extensive functionalities, which in turn raise significant concerns over their security and privacy. Despite their growing adoption, systematic and in-depth security analysis of these agents has largely been overlooked. In this paper, we present a comprehensive security analysis of eight real-world coding agents. Our analysis addresses the limitations of prior approaches, which were often fragmented and ad hoc, by systematically examining the internal workflows of coding agents and identifying security threats across their components. Through the analysis, we identify 15 security issues, including previously overlooked or missed issues, that can be abused to compromise the confidentiality and integrity of user systems. Furthermore, we show that these security issues are not merely individual vulnerabilities, but can collectively lead to end-to-end exploitations. By leveraging these security issues, we successfully achieved arbitrary command execution in five agents and global data exfiltration in four agents, all without any user interaction or approval. Our findings highlight the need for a comprehensive security analysis in modern LLM-driven agents and demonstrate how insufficient security considerations can lead to severe vulnerabilities.
- Abstract(参考訳): ソフトウェア開発に特化したLLM駆動のエージェントであるコーディングエージェントは、現代のプログラミング環境においてますます普及している。
単純なコード補完と提案を提供する従来のAIコーディングアシスタントとは異なり、現代のコーディングエージェントは、自然言語命令からプログラム全体を生成するなど、より複雑なタスクに、より自律的に対処する。
このような機能を実現するために、現代のコーディングエージェントには広範な機能が含まれており、それによってセキュリティとプライバシに関する重大な懸念が持ち上がる。
採用が増えているにもかかわらず、これらのエージェントの体系的かつ詳細なセキュリティ分析はほとんど見過ごされている。
本稿では,8つの実世界の符号化エージェントの包括的セキュリティ解析について述べる。
我々の分析は、コーディングエージェントの内部ワークフローを体系的に検証し、コンポーネント間のセキュリティ脅威を特定することによって、しばしば断片化され、アドホックな、以前のアプローチの限界に対処する。
分析により、ユーザシステムの機密性や整合性を損なうために悪用される可能性のある、これまで見過ごされた、あるいは見逃された問題を含む15のセキュリティ問題を特定します。
さらに、これらのセキュリティ問題は、単に個々の脆弱性であるだけでなく、一括してエンドツーエンドのエクスプロイトにつながる可能性があることを示しています。
これらのセキュリティ問題を活用することで、5つのエージェントで任意のコマンド実行を達成し、4つのエージェントでグローバルなデータ抽出を実現しました。
我々の研究は、現代のLSM駆動エージェントにおける総合的なセキュリティ分析の必要性を強調し、セキュリティ上の配慮不足が深刻な脆弱性の原因であることを実証した。
関連論文リスト
- OpenAgentSafety: A Comprehensive Framework for Evaluating Real-World AI Agent Safety [58.201189860217724]
OpenAgentSafetyは,8つの危機リスクカテゴリにまたがるエージェントの動作を評価する包括的なフレームワークである。
従来の作業とは異なり、我々のフレームワークは、Webブラウザ、コード実行環境、ファイルシステム、bashシェル、メッセージングプラットフォームなど、実際のツールと対話するエージェントを評価します。
ルールベースの分析とLSM-as-judgeアセスメントを組み合わせることで、過度な行動と微妙な不安全行動の両方を検出する。
論文 参考訳(メタデータ) (2025-07-08T16:18:54Z) - SafeMobile: Chain-level Jailbreak Detection and Automated Evaluation for Multimodal Mobile Agents [58.21223208538351]
本研究は,モバイルマルチモーダルエージェントを取り巻くセキュリティ問題について考察する。
行動シーケンス情報を組み込んだリスク識別機構の構築を試みる。
また、大規模言語モデルに基づく自動アセスメントスキームも設計している。
論文 参考訳(メタデータ) (2025-07-01T15:10:00Z) - Kaleidoscopic Teaming in Multi Agent Simulations [75.47388708240042]
我々は,エージェントが行う複雑な行動,思考プロセス,行動の安全性リスクを評価する上で,既存のレッドチームや安全評価フレームワークは不十分であると主張している。
我々は,新しいコンテキスト内最適化手法を導入し,安全解析のためのより良いシナリオを生成する。
エージェントの安全性を測定するためのフレームワークとともに使用できる適切なメトリクスを提案する。
論文 参考訳(メタデータ) (2025-06-20T23:37:17Z) - LLM Agents Should Employ Security Principles [60.03651084139836]
本稿では,大規模言語モデル(LLM)エージェントを大規模に展開する際には,情報セキュリティの確立した設計原則を採用するべきであることを論じる。
AgentSandboxは、エージェントのライフサイクル全体を通して保護を提供するために、これらのセキュリティ原則を組み込んだ概念的なフレームワークである。
論文 参考訳(メタデータ) (2025-05-29T21:39:08Z) - Towards Trustworthy GUI Agents: A Survey [64.6445117343499]
本調査では,GUIエージェントの信頼性を5つの重要な次元で検証する。
敵攻撃に対する脆弱性、シーケンシャルな意思決定における障害モードのカスケードなど、大きな課題を特定します。
GUIエージェントが普及するにつれて、堅牢な安全基準と責任ある開発プラクティスを確立することが不可欠である。
論文 参考訳(メタデータ) (2025-03-30T13:26:00Z) - Safeguarding AI Agents: Developing and Analyzing Safety Architectures [0.0]
本稿では,人間チームと連携するAIシステムにおける安全対策の必要性について論じる。
我々は,AIエージェントシステムにおける安全プロトコルを強化する3つのフレームワークを提案し,評価する。
これらのフレームワークはAIエージェントシステムの安全性とセキュリティを大幅に強化することができると結論付けている。
論文 参考訳(メタデータ) (2024-09-03T10:14:51Z) - Security of AI Agents [5.468745160706382]
システムセキュリティの観点から、AIエージェントの潜在的な脆弱性を特定し、記述する。
本研究では,各脆弱性に対応する防御機構を設計と実験で導入し,その生存性を評価する。
本稿では、現在のAIエージェント開発におけるセキュリティ問題を文脈的に分析し、AIエージェントをより安全で信頼性の高いものにするための方法を解説する。
論文 参考訳(メタデータ) (2024-06-12T23:16:45Z) - Large Language Models for Cyber Security: A Systematic Literature Review [17.073186844004148]
大規模言語モデル(LLM)は、サイバーセキュリティを含むさまざまなアプリケーションドメインで人工知能を活用する新たな機会を開いた。
LLMは、脆弱性検出、マルウェア分析、ネットワーク侵入検出など、幅広いサイバーセキュリティタスクに適用されている。
LLMベースの自律エージェントは、シングルタスク実行から複雑なマルチステップセキュリティのオーケストレーションへのパラダイムシフトを表している。
論文 参考訳(メタデータ) (2024-05-08T02:09:17Z) - Dos and Don'ts of Machine Learning in Computer Security [74.1816306998445]
大きな可能性にもかかわらず、セキュリティにおける機械学習は、パフォーマンスを損なう微妙な落とし穴を引き起こす傾向がある。
我々は,学習ベースのセキュリティシステムの設計,実装,評価において共通の落とし穴を特定する。
我々は,落とし穴の回避や軽減を支援するために,研究者を支援するための実用的な勧告を提案する。
論文 参考訳(メタデータ) (2020-10-19T13:09:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。