論文の概要: RESTRAIN: Reinforcement Learning-Based Secure Framework for Trigger-Action IoT Environment
- arxiv url: http://arxiv.org/abs/2503.09513v1
- Date: Wed, 12 Mar 2025 16:23:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-13 21:17:52.848248
- Title: RESTRAIN: Reinforcement Learning-Based Secure Framework for Trigger-Action IoT Environment
- Title(参考訳): RESTRAIN: Trigger-Action IoT環境のための強化学習ベースのセキュアフレームワーク
- Authors: Md Morshed Alam, Lokesh Chandra Das, Sandip Roy, Sachin Shetty, Weichao Wang,
- Abstract要約: トリガーアクション機能を備えたIoT(Internet of Things)プラットフォームでは、イベント条件が自律的にアクションをトリガーすることができる。
敵は、この一連のインタラクションを利用して、偽のイベント条件をIoTハブに不正に注入する。
本稿では,プラットフォームに依存しないマルチエージェントオンライン防衛システムであるRESTRAINを提案し,実行時にリモートインジェクション攻撃に対処する。
- 参考スコア(独自算出の注目度): 5.509614283385528
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Internet of Things (IoT) platforms with trigger-action capability allow event conditions to trigger actions in IoT devices autonomously by creating a chain of interactions. Adversaries exploit this chain of interactions to maliciously inject fake event conditions into IoT hubs, triggering unauthorized actions on target IoT devices to implement remote injection attacks. Existing defense mechanisms focus mainly on the verification of event transactions using physical event fingerprints to enforce the security policies to block unsafe event transactions. These approaches are designed to provide offline defense against injection attacks. The state-of-the-art online defense mechanisms offer real-time defense, but extensive reliability on the inference of attack impacts on the IoT network limits the generalization capability of these approaches. In this paper, we propose a platform-independent multi-agent online defense system, namely RESTRAIN, to counter remote injection attacks at runtime. RESTRAIN allows the defense agent to profile attack actions at runtime and leverages reinforcement learning to optimize a defense policy that complies with the security requirements of the IoT network. The experimental results show that the defense agent effectively takes real-time defense actions against complex and dynamic remote injection attacks and maximizes the security gain with minimal computational overhead.
- Abstract(参考訳): トリガアクション機能を備えたIoT(Internet of Things)プラットフォームでは、イベントコンディションによって、インタラクションの連鎖を生成することで、IoTデバイス内のアクションを自律的にトリガすることが可能になる。
管理者はこの一連のインタラクションを利用して、偽のイベント条件を悪意を持ってIoTハブに注入し、ターゲットのIoTデバイスに不正なアクションを発生させ、リモートインジェクション攻撃を実装する。
既存の防御メカニズムは、安全でないイベントトランザクションをブロックするためのセキュリティポリシーを強制するために、物理的なイベントフィンガープリントを使用したイベントトランザクションの検証に重点を置いている。
これらのアプローチは、インジェクション攻撃に対するオフライン防御を提供するように設計されている。
最先端のオンライン防御メカニズムは、リアルタイム防衛を提供するが、IoTネットワークに対する攻撃の影響の推測に対する広範な信頼性は、これらのアプローチの一般化能力を制限している。
本稿では,プラットフォームに依存しないマルチエージェントオンライン防衛システムであるRESTRAINを提案し,実行時にリモートインジェクション攻撃に対処する。
RESTRAINでは、ディフェンスエージェントが実行時に攻撃アクションをプロファイリングし、強化学習を活用して、IoTネットワークのセキュリティ要件に準拠したディフェンスポリシを最適化する。
実験結果から, 遠隔地攻撃に対するリアルタイム防御を効果的に行い, 最小限の計算オーバーヘッドでセキュリティゲインを最大化できることが示唆された。
関連論文リスト
- CausalArmor: Efficient Indirect Prompt Injection Guardrails via Causal Attribution [49.689452243966315]
ツールコール機能を備えたAIエージェントは、IPI(Indirect Prompt Injection)攻撃の影響を受けやすい。
本稿では,選択防衛フレームワークCausalArmorを提案する。
AgentDojoとDoomArenaの実験は、CausalArmorが攻撃的な防御のセキュリティと一致することを示した。
論文 参考訳(メタデータ) (2026-02-08T11:34:08Z) - CaMeLs Can Use Computers Too: System-level Security for Computer Use Agents [60.98294016925157]
AIエージェントは、悪意のあるコンテンツがエージェントの行動をハイジャックして認証情報を盗んだり、金銭的損失を引き起こすような、インジェクション攻撃に弱い。
CUAのためのシングルショットプランニングでは、信頼できるプランナーが、潜在的に悪意のあるコンテンツを観察する前に、条件付きブランチで完全な実行グラフを生成する。
このアーキテクチャ分離は命令インジェクションを効果的に防止するが、ブランチステアリング攻撃を防ぐには追加の対策が必要であることを示す。
論文 参考訳(メタデータ) (2026-01-14T23:06:35Z) - Cognitive Control Architecture (CCA): A Lifecycle Supervision Framework for Robustly Aligned AI Agents [1.014002853673217]
LLMエージェントはIPI(Indirect Prompt Injection)攻撃に対して脆弱である。
IPIは外部情報ソースを汚染することでハイジャックエージェントの動作を攻撃している。
本稿では,全ライフサイクルの認知管理を実現するための総合的な枠組みである認知制御アーキテクチャ(CCA)を提案する。
論文 参考訳(メタデータ) (2025-12-07T08:11:19Z) - Adaptive Attacks on Trusted Monitors Subvert AI Control Protocols [80.68060125494645]
プロトコルとモニタモデルを知っている信頼できないモデルによるアダプティブアタックについて検討する。
我々は、攻撃者がモデル出力に公知またはゼロショットプロンプトインジェクションを埋め込む単純な適応攻撃ベクトルをインスタンス化する。
論文 参考訳(メタデータ) (2025-10-10T15:12:44Z) - Cuckoo Attack: Stealthy and Persistent Attacks Against AI-IDE [64.47951172662745]
Cuckoo Attackは、悪意のあるペイロードを構成ファイルに埋め込むことで、ステルス性と永続的なコマンド実行を実現する新しい攻撃である。
攻撃パラダイムを初期感染と持続性という2つの段階に分類する。
当社は、ベンダーが製品のセキュリティを評価するために、実行可能な7つのチェックポイントを提供しています。
論文 参考訳(メタデータ) (2025-09-19T04:10:52Z) - IPIGuard: A Novel Tool Dependency Graph-Based Defense Against Indirect Prompt Injection in LLM Agents [33.775221377823925]
大規模言語モデル(LLM)エージェントは現実世界のアプリケーションに広くデプロイされており、複雑なタスクのために外部データを検索し操作するためのツールを活用している。
信頼できないデータソースと対話する場合、ツールレスポンスには、エージェントの動作に秘密裏に影響を与え、悪意のある結果をもたらすインジェクションが含まれている可能性がある。
我々はIPIGuardと呼ばれる新しい防御タスク実行パラダイムを提案し、ソースにおける悪意あるツール呼び出しを防止する。
論文 参考訳(メタデータ) (2025-08-21T07:08:16Z) - A Transformer-Based Approach for DDoS Attack Detection in IoT Networks [0.0]
DDoS攻撃はIoTデバイスのセキュリティにとって大きな脅威となっている。
DDoS攻撃を検出する従来の方法は、IoTネットワークの動的性質に対処するのに十分な効率性はない。
本稿では,自然言語処理タスクにおいて顕著な性能を示すトランスフォーマーモデルを用いた新しい手法を提案する。
論文 参考訳(メタデータ) (2025-08-14T13:33:49Z) - CyGATE: Game-Theoretic Cyber Attack-Defense Engine for Patch Strategy Optimization [73.13843039509386]
本稿では,攻撃と防御の相互作用をモデル化するゲーム理論フレームワークCyGATEを提案する。
CyGATEはサイバー・キル・チェーン(Cyber Kill Chain)の段階にわたって、サイバー紛争を部分的に観察可能なゲーム(POSG)として捉えている。
フレームワークの柔軟なアーキテクチャは、マルチエージェントシナリオの拡張を可能にする。
論文 参考訳(メタデータ) (2025-08-01T09:53:06Z) - Secure Tug-of-War (SecTOW): Iterative Defense-Attack Training with Reinforcement Learning for Multimodal Model Security [63.41350337821108]
マルチモーダル大規模言語モデル(MLLM)のセキュリティを高めるために,Secure Tug-of-War(SecTOW)を提案する。
SecTOWは2つのモジュールで構成される:ディフェンダーと補助攻撃者。どちらも強化学習(GRPO)を使用して反復的に訓練される。
SecTOWは、一般的な性能を維持しながら、セキュリティを大幅に改善することを示す。
論文 参考訳(メタデータ) (2025-07-29T17:39:48Z) - Defending Against Prompt Injection With a Few DefensiveTokens [53.7493897456957]
大規模言語モデル(LLM)システムは複雑なタスクを実行するために外部データと相互作用する。
システムによってアクセスされたデータに命令を注入することにより、攻撃者は攻撃者が指示する任意のタスクで初期ユーザタスクをオーバーライドすることができる。
システム開発者がフレキシブルな方法で必要な場合にのみセキュリティを確保するためには、例えば防御プロンプトのようなテストタイムディフェンスが提案されている。
トレーニング時の代替に匹敵するプロンプトインジェクションを備えたテストタイムディフェンスであるDefensiveTokenを提案する。
論文 参考訳(メタデータ) (2025-07-10T17:51:05Z) - DRIFT: Dynamic Rule-Based Defense with Injection Isolation for Securing LLM Agents [52.92354372596197]
大規模言語モデル(LLM)は、強力な推論と計画能力のため、エージェントシステムの中心となってきています。
この相互作用は、外部ソースからの悪意のある入力がエージェントの振る舞いを誤解させる可能性がある、インジェクション攻撃のリスクも引き起こす。
本稿では,信頼に値するエージェントシステムのための動的ルールベースの分離フレームワークを提案する。
論文 参考訳(メタデータ) (2025-06-13T05:01:09Z) - DoomArena: A framework for Testing AI Agents Against Evolving Security Threats [84.94654617852322]
本稿では,AIエージェントのセキュリティ評価フレームワークであるDoomArenaを紹介する。
プラグインフレームワークであり、現実的なエージェントフレームワークと簡単に統合できる。
モジュールであり、エージェントがデプロイされる環境の詳細から攻撃の開発を分離する。
論文 参考訳(メタデータ) (2025-04-18T20:36:10Z) - Intelligent IoT Attack Detection Design via ODLLM with Feature Ranking-based Knowledge Base [0.964942474860411]
IoT(Internet of Things)デバイスは,重大なサイバーセキュリティ上の課題を導入している。
従来の機械学習(ML)技術は、混在するパターンと進化するパターンの複雑さのために、このような攻撃を検出するのに不足することが多い。
本稿では,オンデバイス大規模言語モデル(ODLLMs)を微調整と知識ベース(KB)統合で拡張し,インテリジェントなIoTネットワーク攻撃検出を実現する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-27T16:41:57Z) - Tit-for-Tat: Safeguarding Large Vision-Language Models Against Jailbreak Attacks via Adversarial Defense [90.71884758066042]
大きな視覚言語モデル(LVLM)は、視覚入力による悪意のある攻撃に対する感受性という、ユニークな脆弱性を導入している。
本稿では,脆弱性発生源からアクティブ防衛機構へ視覚空間を変換するための新しい手法であるESIIIを提案する。
論文 参考訳(メタデータ) (2025-03-14T17:39:45Z) - Enhancing Network Security Management in Water Systems using FM-based Attack Attribution [43.48086726793515]
本稿では,水系センサとアクチュエータの相互作用を生かし,サイバー攻撃に対する詳細な説明と属性を提供する,FM(Model-Agnostic Factorization Machines)に基づく新しい手法を提案する。
複雑なセンサーとアクチュエータの相互作用を含む多機能サイバー攻撃シナリオにおいて、FMベースの攻撃属性法は攻撃根原因を効果的にランク付けし、SHAPやLEMNAよりも平均20%向上した。
論文 参考訳(メタデータ) (2025-03-03T06:52:00Z) - Smart Grid Security: A Verified Deep Reinforcement Learning Framework to Counter Cyber-Physical Attacks [2.159496955301211]
スマートグリッドは戦略的なサイバー物理攻撃に対して脆弱である。
悪意のある攻撃は、高ワットのIoT(Internet of Things)ボットネットデバイスを使用して電力需要を操作することができる。
グリッドオペレータは、設計段階でサイバー物理攻撃の潜在的なシナリオを見落としている。
本稿では,スマートグリッドに対する攻撃を緩和する安全な深層強化学習(DRL)フレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-24T05:26:20Z) - IoTWarden: A Deep Reinforcement Learning Based Real-time Defense System to Mitigate Trigger-action IoT Attacks [3.1449061818799615]
我々は、インジェクション攻撃のための強化学習に基づくリアルタイム防衛システムを構築した。
実験の結果,提案機構は適切なオーバーヘッドで効果的かつ正確に注射攻撃を識別・防御できることが示唆された。
論文 参考訳(メタデータ) (2024-01-16T06:25:56Z) - Classification of cyber attacks on IoT and ubiquitous computing devices [49.1574468325115]
本稿ではIoTマルウェアの分類について述べる。
攻撃の主要なターゲットと使用済みのエクスプロイトが特定され、特定のマルウェアを参照される。
現在のIoT攻撃の大部分は、相容れない低い労力と高度なレベルであり、既存の技術的措置によって緩和される可能性がある。
論文 参考訳(メタデータ) (2023-12-01T16:10:43Z) - Attention-Based Real-Time Defenses for Physical Adversarial Attacks in
Vision Applications [58.06882713631082]
ディープニューラルネットワークはコンピュータビジョンタスクにおいて優れたパフォーマンスを示すが、現実の敵攻撃に対する脆弱性は深刻なセキュリティ上の懸念を引き起こす。
本稿では、敵チャネルの注意力を利用して、浅いネットワーク層における悪意のある物体を素早く識別・追跡する、効果的な注意に基づく防御機構を提案する。
また、効率的な多フレーム防御フレームワークを導入し、防御性能と計算コストの両方を評価することを目的とした広範な実験を通じて、その有効性を検証した。
論文 参考訳(メタデータ) (2023-11-19T00:47:17Z) - CyberForce: A Federated Reinforcement Learning Framework for Malware Mitigation [6.22761577977019]
CyberForceは、フェデレーションと強化学習(FRL)を組み合わせて、ゼロデイ攻撃を緩和するための適切なMTDテクニックを学ぶフレームワークである。
実験の結果、CyberForceは既存のRLベースの集中型アプローチよりも高速に攻撃を緩和するMTD技術を学んだ。
エージェント学習プロセスで使用される異なる集約アルゴリズムは、CyberForceに悪意のある攻撃に対する顕著な堅牢性を提供する。
論文 参考訳(メタデータ) (2023-08-11T07:25:12Z) - HoneyIoT: Adaptive High-Interaction Honeypot for IoT Devices Through
Reinforcement Learning [10.186372780116631]
我々は、HoneyIoTと呼ばれるIoTデバイス向けの適応型ハイインタラクション・ハニーポットを開発した。
まず、攻撃者がIoTデバイスとどのように相互作用するかを学ぶために、実際のデバイスベースの攻撃トレース収集システムを構築します。
次に、マルコフ決定プロセスを通じて攻撃行動をモデル化し、強化学習技術を活用して、攻撃者に対する最善の対応を学習する。
論文 参考訳(メタデータ) (2023-05-10T19:43:20Z) - ARGUS: Context-Based Detection of Stealthy IoT Infiltration Attacks [18.819756176569033]
IoTデバイスは、スマートホームや建物、スマートシティ、スマートファクトリの機能を制御します。
既存の攻撃検出アプローチは、主に個々のIoTデバイスを直接競合する攻撃に限られている。
我々は,IoT環境に対するコンテキストアタックを検出するための,最初の自己学習型侵入検知システムARGUSを提案する。
論文 参考訳(メタデータ) (2023-02-15T11:05:45Z) - Fixed Points in Cyber Space: Rethinking Optimal Evasion Attacks in the
Age of AI-NIDS [70.60975663021952]
ネットワーク分類器に対するブラックボックス攻撃について検討する。
我々は、アタッカー・ディフェンダーの固定点がそれ自体、複雑な位相遷移を持つ一般サムゲームであると主張する。
攻撃防御力学の研究には連続的な学習手法が必要であることを示す。
論文 参考訳(メタデータ) (2021-11-23T23:42:16Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z) - Challenges and Countermeasures for Adversarial Attacks on Deep
Reinforcement Learning [48.49658986576776]
深層強化学習(Dep Reinforcement Learning, DRL)は、周囲の環境に適応する優れた能力のおかげで、現実世界に多くの応用がある。
その大きな利点にもかかわらず、DRLは現実のクリティカルシステムやアプリケーションでの使用を妨げている敵攻撃の影響を受けやすい。
本稿では,DRLベースのシステムにおける新たな攻撃と,これらの攻撃を防御するための潜在的対策について述べる。
論文 参考訳(メタデータ) (2020-01-27T10:53:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。