論文の概要: Model Extraction Attacks Against Reinforcement Learning Based
Controllers
- arxiv url: http://arxiv.org/abs/2304.13090v1
- Date: Tue, 25 Apr 2023 18:48:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-27 16:54:33.088916
- Title: Model Extraction Attacks Against Reinforcement Learning Based
Controllers
- Title(参考訳): 強化学習に基づく制御器に対するモデル抽出攻撃
- Authors: Momina Sajid, Yanning Shen, Yasser Shoukry
- Abstract要約: 本稿では,Reinforcement Learning (RL)アルゴリズムを用いてDNN(Deep Neural Network)コントローラをトレーニングし,システムを制御する際の設定に焦点を当てる。
オフラインフェーズとも呼ばれる第1フェーズでは、攻撃者はRL-リワード関数とシステムダイナミクスに関するサイドチャネル情報を使用して、未知のDNNの候補推定セットを特定する。
オンラインフェーズとも呼ばれる第2フェーズでは、攻撃者は未知のDNNの振る舞いを観察し、これらの観察を使用して最終的なポリシー推定のセットをショートリスト化する。
- 参考スコア(独自算出の注目度): 9.273077240506016
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce the problem of model-extraction attacks in cyber-physical
systems in which an attacker attempts to estimate (or extract) the feedback
controller of the system. Extracting (or estimating) the controller provides an
unmatched edge to attackers since it allows them to predict the future control
actions of the system and plan their attack accordingly. Hence, it is important
to understand the ability of the attackers to perform such an attack. In this
paper, we focus on the setting when a Deep Neural Network (DNN) controller is
trained using Reinforcement Learning (RL) algorithms and is used to control a
stochastic system. We play the role of the attacker that aims to estimate such
an unknown DNN controller, and we propose a two-phase algorithm. In the first
phase, also called the offline phase, the attacker uses side-channel
information about the RL-reward function and the system dynamics to identify a
set of candidate estimates of the unknown DNN. In the second phase, also called
the online phase, the attacker observes the behavior of the unknown DNN and
uses these observations to shortlist the set of final policy estimates. We
provide theoretical analysis of the error between the unknown DNN and the
estimated one. We also provide numerical results showing the effectiveness of
the proposed algorithm.
- Abstract(参考訳): 本稿では,攻撃者がシステムのフィードバックコントローラを推定(あるいは抽出)しようとするサイバー物理システムにおけるモデル抽出攻撃の問題を紹介する。
コントローラの抽出(または推定)は、システムの将来の制御アクションを予測し、それに応じて攻撃を計画できるため、攻撃者に対して一致しないエッジを提供する。
したがって、攻撃者がそのような攻撃を行う能力を理解することが重要である。
本稿では,Reinforcement Learning (RL)アルゴリズムを用いてディープニューラルネットワーク(DNN)コントローラをトレーニングし,確率的システムを制御する際の設定に焦点を当てる。
我々は、そのような未知のDNNコントローラを推定することを目的とした攻撃者の役割を担い、二相アルゴリズムを提案する。
オフラインフェーズとも呼ばれる第1フェーズでは、攻撃者はRL-リワード関数とシステムダイナミクスに関するサイドチャネル情報を使用して、未知のDNNの候補推定セットを特定する。
オンラインフェーズとも呼ばれる第2フェーズでは、攻撃者は未知のDNNの行動を観察し、これらの観察を使用して最終的なポリシー推定のセットをショートリスト化する。
未知のDNNと推定したDNNの誤差を理論的に解析する。
また,提案アルゴリズムの有効性を示す数値的な結果も提供する。
関連論文リスト
- Securing Graph Neural Networks in MLaaS: A Comprehensive Realization of Query-based Integrity Verification [68.86863899919358]
我々は機械学習におけるGNNモデルをモデル中心の攻撃から保護するための画期的なアプローチを導入する。
提案手法は,GNNの完全性に対する包括的検証スキーマを含み,トランスダクティブとインダクティブGNNの両方を考慮している。
本稿では,革新的なノード指紋生成アルゴリズムを組み込んだクエリベースの検証手法を提案する。
論文 参考訳(メタデータ) (2023-12-13T03:17:05Z) - Downlink Power Allocation in Massive MIMO via Deep Learning: Adversarial
Attacks and Training [62.77129284830945]
本稿では,無線環境における回帰問題を考察し,敵攻撃がDLベースのアプローチを損なう可能性があることを示す。
また,攻撃に対するDLベースの無線システムの堅牢性が著しく向上することを示す。
論文 参考訳(メタデータ) (2022-06-14T04:55:11Z) - Early Detection of Network Attacks Using Deep Learning [0.0]
ネットワーク侵入検知システム(英: Network Intrusion Detection System、IDS)は、ネットワークトラフィックを観察することによって、不正かつ悪意のない行動を特定するためのツールである。
本稿では,攻撃対象のシステムにダメージを与える前に,ネットワーク攻撃を防止するために,エンド・ツー・エンドの早期侵入検知システムを提案する。
論文 参考訳(メタデータ) (2022-01-27T16:35:37Z) - Modelling DDoS Attacks in IoT Networks using Machine Learning [21.812642970826563]
TCP固有の攻撃は、攻撃者がサイバー物理システムで使用できる最も有効なツールの1つである。
本研究では、CPS-IoTにおけるDDoS攻撃を検出するための教師付き、教師なし、および半教師付き機械学習アルゴリズムの有効性を比較する。
論文 参考訳(メタデータ) (2021-12-10T12:09:26Z) - The Feasibility and Inevitability of Stealth Attacks [63.14766152741211]
我々は、攻撃者が汎用人工知能システムにおける決定を制御できる新しい敵の摂動について研究する。
敵対的なデータ修正とは対照的に、ここで考慮する攻撃メカニズムには、AIシステム自体の変更が含まれる。
論文 参考訳(メタデータ) (2021-06-26T10:50:07Z) - Policy Smoothing for Provably Robust Reinforcement Learning [109.90239627115336]
入力のノルム有界対向摂動に対する強化学習の証明可能な堅牢性について検討する。
我々は、スムーズなポリシーによって得られる全報酬が、入力の摂動のノルムバウンドな逆数の下で一定の閾値以下に収まらないことを保証した証明書を生成する。
論文 参考訳(メタデータ) (2021-06-21T21:42:08Z) - Towards Adversarial Patch Analysis and Certified Defense against Crowd
Counting [61.99564267735242]
安全クリティカルな監視システムの重要性から、群衆のカウントは多くの注目を集めています。
近年の研究では、ディープニューラルネットワーク(DNN)の手法が敵の攻撃に弱いことが示されている。
群衆カウントモデルのロバスト性を評価するために,Momentumを用いた攻撃戦略としてAdversarial Patch Attackを提案する。
論文 参考訳(メタデータ) (2021-04-22T05:10:55Z) - Learning-Based Vulnerability Analysis of Cyber-Physical Systems [10.066594071800337]
本研究は,サイバー物理システムの脆弱性解析におけるディープラーニングの利用に焦点を当てる。
我々は,低レベル制御が拡張カルマンフィルタ(ekf)や異常検出器(anomaly detector)などに基づくcpsにおいて広く用いられている制御アーキテクチャを考える。
潜在的なセンシング攻撃が持つ影響を分析することを容易にするため、学習可能な攻撃生成器の開発が目的である。
論文 参考訳(メタデータ) (2021-03-10T06:52:26Z) - Towards Adversarial-Resilient Deep Neural Networks for False Data
Injection Attack Detection in Power Grids [7.351477761427584]
偽データインジェクション攻撃(FDIA)は、電力システムの状態推定に重大なセキュリティ上の脅威をもたらす。
最近の研究では、機械学習(ML)技術、特にディープニューラルネットワーク(DNN)が提案されている。
論文 参考訳(メタデータ) (2021-02-17T22:26:34Z) - A Secure Learning Control Strategy via Dynamic Camouflaging for Unknown
Dynamical Systems under Attacks [0.0]
本稿では、未知の線形時間不変サイバー物理システム(CPS)に対するセキュア強化学習(RL)に基づく制御手法を提案する。
本研究では,設計者による学習の探索段階において,攻撃者が動的モデルについて学習する攻撃シナリオについて考察する。
本稿では,動的カモフラージュに基づく攻撃耐性強化学習(ARRL)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-01T00:34:38Z) - Adversarial vs behavioural-based defensive AI with joint, continual and
active learning: automated evaluation of robustness to deception, poisoning
and concept drift [62.997667081978825]
人工知能(AI)の最近の進歩は、サイバーセキュリティのための行動分析(UEBA)に新たな能力をもたらした。
本稿では、検出プロセスを改善し、人間の専門知識を効果的に活用することにより、この攻撃を効果的に軽減するソリューションを提案する。
論文 参考訳(メタデータ) (2020-01-13T13:54:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。