論文の概要: Cuckoo Attack: Stealthy and Persistent Attacks Against AI-IDE
- arxiv url: http://arxiv.org/abs/2509.15572v1
- Date: Fri, 19 Sep 2025 04:10:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-22 18:18:10.989229
- Title: Cuckoo Attack: Stealthy and Persistent Attacks Against AI-IDE
- Title(参考訳): Cuckoo攻撃:AI-IDEに対する頑丈で永続的な攻撃
- Authors: Xinpeng Liu, Junming Liu, Peiyu Liu, Han Zheng, Qinying Wang, Mathias Payer, Shouling Ji, Wenhai Wang,
- Abstract要約: Cuckoo Attackは、悪意のあるペイロードを構成ファイルに埋め込むことで、ステルス性と永続的なコマンド実行を実現する新しい攻撃である。
攻撃パラダイムを初期感染と持続性という2つの段階に分類する。
当社は、ベンダーが製品のセキュリティを評価するために、実行可能な7つのチェックポイントを提供しています。
- 参考スコア(独自算出の注目度): 64.47951172662745
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern AI-powered Integrated Development Environments (AI-IDEs) are increasingly defined by an Agent-centric architecture, where an LLM-powered Agent is deeply integrated to autonomously execute complex tasks. This tight integration, however, also introduces a new and critical attack surface. Attackers can exploit these components by injecting malicious instructions into untrusted external sources, effectively hijacking the Agent to perform harmful operations beyond the user's intention or awareness. This emerging threat has quickly attracted research attention, leading to various proposed attack vectors, such as hijacking Model Context Protocol (MCP) Servers to access private data. However, most existing approaches lack stealth and persistence, limiting their practical impact. We propose the Cuckoo Attack, a novel attack that achieves stealthy and persistent command execution by embedding malicious payloads into configuration files. These files, commonly used in AI-IDEs, execute system commands during routine operations, without displaying execution details to the user. Once configured, such files are rarely revisited unless an obvious runtime error occurs, creating a blind spot for attackers to exploit. We formalize our attack paradigm into two stages, including initial infection and persistence. Based on these stages, we analyze the practicality of the attack execution process and identify the relevant exploitation techniques. Furthermore, we analyze the impact of Cuckoo Attack, which can not only invade the developer's local computer but also achieve supply chain attacks through the spread of configuration files. We contribute seven actionable checkpoints for vendors to evaluate their product security. The critical need for these checks is demonstrated by our end-to-end Proof of Concept, which validated the proposed attack across nine mainstream Agent and AI-IDE pairs.
- Abstract(参考訳): 現代のAIによる統合開発環境(AI-IDE)はエージェント中心アーキテクチャによって定義され、LLMによるエージェントは複雑なタスクを自律的に実行するために深く統合されている。
しかし、この密接な統合は、新しくて重要な攻撃面も導入している。
攻撃者は、悪意のある命令を信頼できない外部ソースに注入し、事実上エージェントをハイジャックして、ユーザーの意図や意識を超えた有害な操作を行う。
この新たな脅威が急速に研究の注目を集め、プライベートデータにアクセスするためのモデルコンテキストプロトコル(MCP)サーバをハイジャックするなど、様々な攻撃ベクトルが提案されている。
しかし、既存のアプローチのほとんどはステルスと永続性に欠けており、その実践的な影響を制限している。
我々は,悪質なペイロードを構成ファイルに埋め込むことで,ステルス性と永続的なコマンド実行を実現する新しい攻撃であるCuckoo攻撃を提案する。
AI-IDEで一般的に使用されるこれらのファイルは、ユーザに対して実行の詳細を表示せずに、ルーチン操作中にシステムコマンドを実行する。
一度設定すると、明らかにランタイムエラーが発生しない限り、そのようなファイルはめったに更新されないため、攻撃者が悪用する盲点が生じる。
攻撃パラダイムを初期感染と持続性という2つの段階に分類する。
これらの段階に基づいて、攻撃実行プロセスの実用性を分析し、関連する攻撃手法を同定する。
さらに、開発者のローカルコンピュータに侵入するだけでなく、構成ファイルの拡散を通じてサプライチェーン攻撃を達成できるCuckoo Attackの影響を分析する。
当社は、ベンダーが製品のセキュリティを評価するために、実行可能な7つのチェックポイントを提供しています。
これらのチェックに対する重要なニーズは、9つのメインストリームエージェントとAI-IDEペアで提案された攻撃を検証する、エンドツーエンドのProof of Conceptによって実証されています。
関連論文リスト
- Poison Once, Control Anywhere: Clean-Text Visual Backdoors in VLM-based Mobile Agents [54.35629963816521]
この研究は、VLMベースのモバイルエージェントをターゲットにした最初のクリーンテキストバックドアアタックであるVIBMAを紹介する。
この攻撃は、視覚的な入力だけを変更することによって、悪意ある振る舞いをモデルに注入する。
クリーンタスクの動作を保ちながら高い成功率を達成できることを示す。
論文 参考訳(メタデータ) (2025-06-16T08:09:32Z) - The Hidden Dangers of Browsing AI Agents [0.0]
本稿では,複数のアーキテクチャ層にまたがるシステム的脆弱性に着目し,このようなエージェントの総合的なセキュリティ評価を行う。
本研究は,ブラウジングエージェントのエンド・ツー・エンドの脅威モデルについて概説し,実環境への展開を確保するための実用的なガイダンスを提供する。
論文 参考訳(メタデータ) (2025-05-19T13:10:29Z) - MELON: Provable Defense Against Indirect Prompt Injection Attacks in AI Agents [60.30753230776882]
LLMエージェントは間接的プロンプトインジェクション(IPI)攻撃に対して脆弱であり、ツール検索情報に埋め込まれた悪意のあるタスクはエージェントをリダイレクトして不正なアクションを取ることができる。
マスク機能によって修正されたマスク付きユーザでエージェントの軌道を再実行することで攻撃を検知する新しいIPIディフェンスであるMELONを提案する。
論文 参考訳(メタデータ) (2025-02-07T18:57:49Z) - EIA: Environmental Injection Attack on Generalist Web Agents for Privacy Leakage [40.82238259404402]
敵環境におけるジェネラリストWebエージェントのプライバシーリスクに関する最初の研究を行う。
まず,Webサイト上での攻撃に対する現実的な脅威モデルを提示し,ユーザ固有のPIIを盗むか,あるいはユーザ要求全体に対して,敵対的な2つのターゲットを検討する。
我々は、Mind2Webから様々なPIIカテゴリを含む177のアクションステップを収集し、これまでで最も有能なジェネラリストWebエージェントフレームワークの1つを使用して実験を行う。
論文 参考訳(メタデータ) (2024-09-17T15:49:44Z) - LeapFrog: The Rowhammer Instruction Skip Attack [5.285478567449658]
本稿では,LeapFrogガジェットと呼ばれる新しいタイプのRowhammerガジェットを提案する。
LeapFrogガジェットは、被害者コードがユーザまたはカーネルスタックにプログラムカウンタ(PC)値を保存するときに現れる。
本研究はLeapFrogガジェットを同定する体系的なプロセスも提示する。
論文 参考訳(メタデータ) (2024-04-11T16:10:16Z) - DRSM: De-Randomized Smoothing on Malware Classifier Providing Certified
Robustness [58.23214712926585]
我々は,マルウェア検出領域の非ランダム化スムース化技術を再設計し,DRSM(De-Randomized Smoothed MalConv)を開発した。
具体的には,実行可能ファイルの局所構造を最大に保ちながら,逆数バイトの影響を確実に抑制するウィンドウアブレーション方式を提案する。
私たちは、マルウェア実行ファイルの静的検出という領域で、認証された堅牢性を提供する最初の人です。
論文 参考訳(メタデータ) (2023-03-20T17:25:22Z) - Adversarial EXEmples: A Survey and Experimental Evaluation of Practical
Attacks on Machine Learning for Windows Malware Detection [67.53296659361598]
EXEmplesは、比較的少ない入力バイトを摂動することで、機械学習に基づく検出をバイパスすることができる。
我々は、機械学習モデルに対する過去の攻撃を包含し、一般化するだけでなく、3つの新たな攻撃を含む統一フレームワークを開発する。
これらの攻撃はFull DOS、Extended、Shiftと呼ばれ、DOSヘッダをそれぞれ操作し、拡張し、第1セクションの内容を変更することで、敵のペイロードを注入する。
論文 参考訳(メタデータ) (2020-08-17T07:16:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。