論文の概要: Systems-Level Attack Surface of Edge Agent Deployments on IoT
- arxiv url: http://arxiv.org/abs/2602.22525v1
- Date: Thu, 26 Feb 2026 01:48:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-27 18:41:22.473205
- Title: Systems-Level Attack Surface of Edge Agent Deployments on IoT
- Title(参考訳): IoT上のエッジエージェントデプロイメントのシステムレベルアタックサーフェス
- Authors: Zhonghao Zhan, Krinos Li, Yefan Zhang, Hamed Haddadi,
- Abstract要約: 3つのアーキテクチャ(クラウドホスト、エッジローカル、ハイブリッド)の実証セキュリティ分析を提示する。
実地テストベッドで観測された2つの緊急障害を含む,システムレベルの攻撃面を5つ同定した。
結果は、モデルやプロンプト設計だけでなく、デプロイメントアーキテクチャがエージェント制御IoTシステムにおけるセキュリティリスクの主要な決定要因であることを実証している。
- 参考スコア(独自算出の注目度): 5.081228499547384
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Edge deployment of LLM agents on IoT hardware introduces attack surfaces absent from cloud-hosted orchestration. We present an empirical security analysis of three architectures (cloud-hosted, edge-local swarm, and hybrid) using a multi-device home-automation testbed with local MQTT messaging and an Android smartphone as an edge inference node. We identify five systems-level attack surfaces, including two emergent failures observed during live testbed operation: coordination-state divergence and induced trust erosion. We frame core security properties as measurable systems metrics: data egress volume, failover window exposure, sovereignty boundary integrity, and provenance chain completeness. Our measurements show that edge-local deployments eliminate routine cloud data exposure but silently degrade sovereignty when fallback mechanisms trigger, with boundary crossings invisible at the application layer. Provenance chains remain complete under cooperative operation yet are trivially bypassed without cryptographic enforcement. Failover windows create transient blind spots exploitable for unauthorised actuation. These results demonstrate that deployment architecture, not just model or prompt design, is a primary determinant of security risk in agent-controlled IoT systems.
- Abstract(参考訳): LLMエージェントのIoTハードウェアへのエッジデプロイは、クラウドホストオーケストレーションに欠如したアタックサーフェスを導入している。
ローカルMQTTメッセージングを用いたマルチデバイスホームオートメーションテストとエッジ推論ノードとしてのAndroidスマートフォンを用いた,3つのアーキテクチャ(クラウドホスト,エッジローカルSwarm,ハイブリッド)の実証的セキュリティ分析を提案する。
実検層操作中に観測された2つの突発的障害を含む5つのシステムレベルの攻撃面を同定した。
私たちは、コアセキュリティ特性を測定可能なシステムメトリクスとして、データエクスグレスボリューム、フェールオーバウインドウの露出、主権境界の整合性、証明チェーンの完全性とみなしています。
我々の測定では、エッジローカルなデプロイメントは、通常のクラウドデータの露出を排除しますが、フォールバックメカニズムが起動すると、無音で主権を低下させ、アプリケーション層では境界交差は見えません。
保護鎖は、協力的操作下では完全なままだが、暗号処理なしでは、自明にバイパスされる。
フェイルオーバーウィンドウは、許可されていないアクティベーションのために利用可能な過渡的な盲点を生成する。
これらの結果は、モデルやプロンプト設計だけでなく、デプロイメントアーキテクチャがエージェント制御IoTシステムにおけるセキュリティリスクの主要な決定要因であることを実証している。
関連論文リスト
- Blind Gods and Broken Screens: Architecting a Secure, Intent-Centric Mobile Agent Operating System [30.443894673057816]
我々は,Doubao Mobile Assistantを用いて,最先端のモバイルエージェントのシステムセキュリティ分析を行う。
我々は脅威の風景をエージェントアイデンティティ、外部インタフェース、内部推論、アクション実行の4つの次元に分解する。
クリーンスレート安全なエージェントOSであるAuraを提案する。
論文 参考訳(メタデータ) (2026-02-11T14:52:27Z) - Just Ask: Curious Code Agents Reveal System Prompts in Frontier LLMs [65.6660735371212]
textbftextscJustAskは,インタラクションのみで効果的な抽出戦略を自律的に発見するフレームワークである。
これは、アッパー信頼境界に基づく戦略選択と、原子プローブと高レベルのオーケストレーションにまたがる階層的なスキル空間を用いて、オンライン探索問題として抽出を定式化する。
この結果から,現代のエージェントシステムにおいて,システムプロンプトは致命的ではあるがほぼ無防備な攻撃面であることがわかった。
論文 参考訳(メタデータ) (2026-01-29T03:53:25Z) - CaMeLs Can Use Computers Too: System-level Security for Computer Use Agents [60.98294016925157]
AIエージェントは、悪意のあるコンテンツがエージェントの行動をハイジャックして認証情報を盗んだり、金銭的損失を引き起こすような、インジェクション攻撃に弱い。
CUAのためのシングルショットプランニングでは、信頼できるプランナーが、潜在的に悪意のあるコンテンツを観察する前に、条件付きブランチで完全な実行グラフを生成する。
このアーキテクチャ分離は命令インジェクションを効果的に防止するが、ブランチステアリング攻撃を防ぐには追加の対策が必要であることを示す。
論文 参考訳(メタデータ) (2026-01-14T23:06:35Z) - BackdoorAgent: A Unified Framework for Backdoor Attacks on LLM-based Agents [58.83028403414688]
大規模言語モデル(LLM)エージェントは、計画、メモリ、ツールの使用を組み合わせた多段階ワークフローを通じてタスクを実行する。
エージェントワークフローの特定のステージに注入されたバックドアトリガーは、複数の中間状態を通して持続し、下流出力に悪影響を及ぼす可能性がある。
LLMエージェントにおけるバックドア脅威を統一したエージェント中心のビューを提供するモジュールおよびステージアウェアフレームワークである textbfBackdoorAgent を提案する。
論文 参考訳(メタデータ) (2026-01-08T03:49:39Z) - Beyond Model Jailbreak: Systematic Dissection of the "Ten DeadlySins" in Embodied Intelligence [36.972586142931256]
Embodied AIシステムは、言語モデルと現実世界のセンシング、モビリティ、クラウドに接続されたモバイルアプリを統合する。
われわれはUnitree Go2プラットフォームの最初の総合的なセキュリティ分析を行う。
クロスレイヤの脆弱性10つ、"Embodied AI Securityの10点"を発見
論文 参考訳(メタデータ) (2025-12-06T10:38:00Z) - OS-Sentinel: Towards Safety-Enhanced Mobile GUI Agents via Hybrid Validation in Realistic Workflows [77.95511352806261]
VLM(Vision-Language Models)を利用したコンピュータ利用エージェントは、モバイルプラットフォームのようなデジタル環境を操作する上で、人間のような能力を実証している。
我々は,明示的なシステムレベルの違反を検出するための形式検証器と,文脈的リスクとエージェント行動を評価するコンテキスト判断器を組み合わせた,新しいハイブリッド安全検出フレームワークOS-Sentinelを提案する。
論文 参考訳(メタデータ) (2025-10-28T13:22:39Z) - DRIFT: Dynamic Rule-Based Defense with Injection Isolation for Securing LLM Agents [52.92354372596197]
大規模言語モデル(LLM)は、強力な推論と計画能力のため、エージェントシステムの中心となってきています。
この相互作用は、外部ソースからの悪意のある入力がエージェントの振る舞いを誤解させる可能性がある、インジェクション攻撃のリスクも引き起こす。
本稿では,信頼に値するエージェントシステムのための動的ルールベースの分離フレームワークを提案する。
論文 参考訳(メタデータ) (2025-06-13T05:01:09Z) - SentinelAgent: Graph-based Anomaly Detection in Multi-Agent Systems [11.497269773189254]
大規模言語モデル(LLM)に基づくマルチエージェントシステム(MAS)に適したシステムレベルの異常検出フレームワークを提案する。
本稿では,エージェント間相互作用を動的実行グラフとしてモデル化し,ノード,エッジ,パスレベルでの意味的異常検出を可能にするグラフベースのフレームワークを提案する。
第2に,セキュリティポリシとコンテキスト推論に基づくMAS実行の監視,解析,介入を行うLLMによる監視エージェントである,プラグイン可能なSentinelAgentを導入する。
論文 参考訳(メタデータ) (2025-05-30T04:25:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。