論文の概要: Securing AI Agents in Cyber-Physical Systems: A Survey of Environmental Interactions, Deepfake Threats, and Defenses
- arxiv url: http://arxiv.org/abs/2601.20184v1
- Date: Wed, 28 Jan 2026 02:33:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-29 15:46:06.734741
- Title: Securing AI Agents in Cyber-Physical Systems: A Survey of Environmental Interactions, Deepfake Threats, and Defenses
- Title(参考訳): サイバー物理システムにおけるAIエージェントのセキュア化:環境相互作用、ディープフェイク脅威、防衛に関する調査
- Authors: Mohsen Hatami, Van Tuan Pham, Hozefa Lakadawala, Yu Chen,
- Abstract要約: この調査は、サイバー物理システムにおけるAIエージェントをターゲットにしたセキュリティ脅威の包括的なレビューを提供する。
我々は、環境相互作用、ディープフェイクによる攻撃、MCPによる脆弱性に焦点を当てる。
タイミング、騒音、偽陽性がいかに制約可能な防御を犠牲にするかを定量的に説明する。
- 参考スコア(独自算出の注目度): 2.6726842616701703
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The increasing integration of AI agents into cyber-physical systems (CPS) introduces new security risks that extend beyond traditional cyber or physical threat models. Recent advances in generative AI enable deepfake and semantic manipulation attacks that can compromise agent perception, reasoning, and interaction with the physical environment, while emerging protocols such as the Model Context Protocol (MCP) further expand the attack surface through dynamic tool use and cross-domain context sharing. This survey provides a comprehensive review of security threats targeting AI agents in CPS, with a particular focus on environmental interactions, deepfake-driven attacks, and MCP-mediated vulnerabilities. We organize the literature using the SENTINEL framework, a lifecycle-aware methodology that integrates threat characterization, feasibility analysis under CPS constraints, defense selection, and continuous validation. Through an end-to-end case study grounded in a real-world smart grid deployment, we quantitatively illustrate how timing, noise, and false-positive costs constrain deployable defenses, and why detection mechanisms alone are insufficient as decision authorities in safety-critical CPS. The survey highlights the role of provenance- and physics-grounded trust mechanisms and defense-in-depth architectures, and outlines open challenges toward trustworthy AI-enabled CPS.
- Abstract(参考訳): AIエージェントをサイバー物理システム(CPS)に統合することで、従来のサイバーまたは物理的脅威モデルを超えて、新たなセキュリティリスクがもたらされる。
生成AIの最近の進歩は、エージェントの知覚、推論、物理的環境との相互作用を損なうディープフェイクやセマンティックな操作攻撃を可能にする一方で、モデルコンテキストプロトコル(MCP)のような新しいプロトコルは、動的ツールの使用やドメイン間のコンテキスト共有を通じて攻撃面をさらに拡張している。
この調査は、CPS内のAIエージェントをターゲットにしたセキュリティ脅威の包括的なレビューを提供する。特に、環境相互作用、ディープフェイク駆動攻撃、MCPによる脆弱性に焦点を当てている。
SENTINELフレームワークは,脅威のキャラクタリゼーション,CPS制約下での実現可能性分析,防御選択,継続的な検証を統合したライフサイクルアウェアな手法である。
実世界のスマートグリッド展開に根ざしたエンドツーエンドのケーススタディを通じて、タイミング、ノイズ、偽陽性コストがデプロイ可能な防御をいかに制約するか、そしてなぜ検出メカニズムのみが安全クリティカルなCPSの意思決定機関として不十分なのかを定量的に説明する。
この調査では、証明と物理学に基づく信頼メカニズムと詳細なアーキテクチャの役割を強調し、信頼できるAI対応CPSに対するオープンな課題を概説している。
関連論文リスト
- ORCA -- An Automated Threat Analysis Pipeline for O-RAN Continuous Development [57.61878484176942]
Open-Radio Access Network (O-RAN)は、多くのソフトウェアコンポーネントをクラウドのようなデプロイメントに統合し、これまで考えられていなかったセキュリティ脅威に無線アクセスネットワークを開放する。
現在の脆弱性評価の実践は、しばしば手動、労働集約、主観的な調査に依存しており、脅威分析の不整合につながる。
人間の介入や関連するバイアスを最小限に抑えるために,自然言語処理(NLP)を活用する自動パイプラインを提案する。
論文 参考訳(メタデータ) (2026-01-20T07:31:59Z) - Systematization of Knowledge: Security and Safety in the Model Context Protocol Ecosystem [0.0]
Model Context Protocol(MCP)は、大規模言語モデルを外部データやツールに接続するためのデファクトスタンダードとして登場した。
本稿では,MCP生態系のリスクを分類し,敵のセキュリティ脅威と安全リスクを区別する。
マルチエージェント環境において、"コンテキスト"を兵器化して、不正な操作をトリガーする方法を実証する。
論文 参考訳(メタデータ) (2025-12-09T06:39:21Z) - Adaptive Cybersecurity Architecture for Digital Product Ecosystems Using Agentic AI [0.0]
本研究では,動的学習と文脈認識型意思決定が可能な自律目標駆動エージェントを提案する。
行動ベースライン、分散リスクスコア、フェデレーションされた脅威情報共有は重要な特徴である。
このアーキテクチャは、複雑なデジタルインフラストラクチャを保護するインテリジェントでスケーラブルな青写真を提供する。
論文 参考訳(メタデータ) (2025-09-25T00:43:53Z) - Cyber Attack Mitigation Framework for Denial of Service (DoS) Attacks in Fog Computing [0.0]
この概要は、自動サイバー脅威軽減に焦点を当てた学術研究の欠如を強調している。
提案手法は、DDoS(Distributed Denial-of-Service)攻撃に適した自動サイバー脅威軽減フレームワークの開発を含む。
論文 参考訳(メタデータ) (2025-09-15T08:09:23Z) - ANNIE: Be Careful of Your Robots [48.89876809734855]
エンボディドAIシステムに対する敵の安全攻撃に関する最初の体系的研究について述べる。
すべての安全カテゴリーで攻撃の成功率は50%を超えている。
結果は、実証済みのAIシステムにおいて、これまで未調査だったが、非常に連続的な攻撃面を露呈する。
論文 参考訳(メタデータ) (2025-09-03T15:00:28Z) - A Survey on Autonomy-Induced Security Risks in Large Model-Based Agents [45.53643260046778]
大規模言語モデル(LLM)の最近の進歩は、自律型AIエージェントの台頭を触媒している。
これらの大きなモデルエージェントは、静的推論システムからインタラクティブなメモリ拡張エンティティへのパラダイムシフトを示す。
論文 参考訳(メタデータ) (2025-06-30T13:34:34Z) - CyFence: Securing Cyber-Physical Controllers via Trusted Execution Environment [45.86654759872101]
サイバー物理システム(CPS)は、サイバー攻撃により多くの負荷を掛けて、技術進化と接続性の向上を経験してきた。
セマンティックチェックを追加することで,サイバー攻撃に対する閉ループ制御システムのレジリエンスを向上させる新しいアーキテクチャであるCyFenceを提案する。
我々はCyFenceをアクティブブレーキデジタルコントローラからなる実世界のアプリケーションとして評価し、異なるタイプの攻撃を無視可能なオーバーヘッドで軽減できることを実証した。
論文 参考訳(メタデータ) (2025-06-12T12:22:45Z) - Frontier AI's Impact on the Cybersecurity Landscape [46.32458228179959]
AIはすでに攻撃に広く使われているが、その防衛用途は限られている。
専門家はAIが攻撃者を擁護し続けると予想しているが、そのギャップは徐々に狭まるだろう。
論文 参考訳(メタデータ) (2025-04-07T18:25:18Z) - A Survey of Model Extraction Attacks and Defenses in Distributed Computing Environments [55.60375624503877]
モデル抽出攻撃(MEA)は、敵がモデルを盗み、知的財産と訓練データを公開することによって、現代の機械学習システムを脅かす。
この調査は、クラウド、エッジ、フェデレーションのユニークな特性がどのように攻撃ベクトルや防御要件を形作るのかを、緊急に理解する必要に起因している。
本研究は, 自動運転車, 医療, 金融サービスといった重要な分野において, 環境要因がセキュリティ戦略にどう影響するかを実証し, 攻撃手法と防衛機構の進化を系統的に検討する。
論文 参考訳(メタデータ) (2025-02-22T03:46:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。