論文の概要: Robustness to Adversarial Attacks in Learning-Enabled Controllers
- arxiv url: http://arxiv.org/abs/2006.06861v1
- Date: Thu, 11 Jun 2020 22:29:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 09:29:29.562775
- Title: Robustness to Adversarial Attacks in Learning-Enabled Controllers
- Title(参考訳): 学習可能なコントローラにおける敵攻撃に対するロバスト性
- Authors: Zikang Xiong, Joe Eappen, He Zhu, Suresh Jagannathan
- Abstract要約: 多様な敵攻撃を含む国家の摂動を考察し、敵国を発見するための攻撃スキームについて述べる。
有効にするためには、これらの攻撃は自然であり、コントローラーが合理的に有意義な応答を期待できる状態をもたらす必要がある。
我々の防衛戦略は、コントローラと環境を未知のダイナミクスを持つブラックボックスとして扱うことを可能にする。
- 参考スコア(独自算出の注目度): 3.4983716329137353
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning-enabled controllers used in cyber-physical systems (CPS) are known
to be susceptible to adversarial attacks. Such attacks manifest as
perturbations to the states generated by the controller's environment in
response to its actions. We consider state perturbations that encompass a wide
variety of adversarial attacks and describe an attack scheme for discovering
adversarial states. To be useful, these attacks need to be natural, yielding
states in which the controller can be reasonably expected to generate a
meaningful response. We consider shield-based defenses as a means to improve
controller robustness in the face of such perturbations. Our defense strategy
allows us to treat the controller and environment as black-boxes with unknown
dynamics. We provide a two-stage approach to construct this defense and show
its effectiveness through a range of experiments on realistic continuous
control domains such as the navigation control-loop of an F16 aircraft and the
motion control system of humanoid robots.
- Abstract(参考訳): サイバー物理システム(CPS)で使用される学習可能なコントローラは、敵の攻撃を受けやすいことが知られている。
このような攻撃は、その動作に応じてコントローラの環境が生成する状態に対する摂動として現れる。
我々は,様々な敵の攻撃を包含する状態摂動を考察し,敵状態を発見するための攻撃計画を記述する。
有効にするためには、これらの攻撃は自然であり、コントローラーが合理的に有意義な応答を期待できる状態をもたらす必要がある。
シールド型防御は,このような摂動に対して制御器のロバスト性を改善する手段であると考える。
我々の防衛戦略は、コントローラと環境を未知のダイナミクスを持つブラックボックスとして扱うことを可能にする。
本研究では,F16航空機の航法制御ループやヒューマノイドロボットの移動制御システムなど,現実的な連続制御領域において,この防御を構築するための2段階のアプローチを提案する。
関連論文リスト
- Smart Grid Security: A Verified Deep Reinforcement Learning Framework to Counter Cyber-Physical Attacks [2.159496955301211]
スマートグリッドは戦略的なサイバー物理攻撃に対して脆弱である。
悪意のある攻撃は、高ワットのIoT(Internet of Things)ボットネットデバイスを使用して電力需要を操作することができる。
グリッドオペレータは、設計段階でサイバー物理攻撃の潜在的なシナリオを見落としている。
本稿では,スマートグリッドに対する攻撃を緩和する安全な深層強化学習(DRL)フレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-24T05:26:20Z) - Rethinking Robustness Assessment: Adversarial Attacks on Learning-based Quadrupedal Locomotion Controllers [33.50779001548997]
Legged locomotionは最近、機械学習技術の進歩で顕著な成功を収めた。
学習した移動制御器の弱点を識別するために,逐次的敵攻撃を利用する計算手法を提案する。
我々の研究は、最先端のロバストコントローラーでさえ、十分に設計された低マグニチュード逆数列の下では著しく失敗することを示した。
論文 参考訳(メタデータ) (2024-05-21T00:26:11Z) - Model Predictive Control with adaptive resilience for Denial-of-Service Attacks mitigation on a Regulated Dam [5.32980262772932]
SCADA (Supervisory Control and Data Acquisition) システムはサイバー攻撃の標的となっている。
本稿では,適応型レジリエンスを備えたモデル予測制御アーキテクチャを提案する。
実データを用いた実システム上での2つの攻撃シナリオにおいて, MPC 戦略の有効性を示す。
論文 参考訳(メタデータ) (2024-02-28T17:47:27Z) - Adversarial Markov Games: On Adaptive Decision-Based Attacks and Defenses [21.759075171536388]
攻撃だけでなく、防御も、相互作用を通じてお互いから学び合うことによって、どのような恩恵を受けるかを示します。
我々は、システムがどのように反応するかを制御するアクティブディフェンスが、意思決定ベースの攻撃に直面した際のモデルの強化に必須の補完であることを示した。
実世界で展開されるMLベースのシステムの堅牢性を確保するための効果的な戦略を策定する。
論文 参考訳(メタデータ) (2023-12-20T21:24:52Z) - Perpetual Humanoid Control for Real-time Simulated Avatars [77.05287269685911]
本稿では,高忠実度動作模倣と耐故障動作を実現する物理に基づくヒューマノイドコントローラを提案する。
コントローラは、外部の安定化力を使わずに1万本のモーションクリップを学習できる。
実時間およびリアルタイムのマルチパーソンアバター使用事例において,映像ベースのポーズ推定器と言語ベースのモーションジェネレータからノイズのあるポーズを模倣するために,制御器の有効性を実証する。
論文 参考訳(メタデータ) (2023-05-10T20:51:37Z) - Illusory Attacks: Information-Theoretic Detectability Matters in Adversarial Attacks [76.35478518372692]
エプシロン・イリューソリー(epsilon-illusory)は、シーケンシャルな意思決定者に対する敵対的攻撃の新たな形態である。
既存の攻撃と比較して,エプシロン・イリューソリーの自動検出は極めて困難である。
以上の結果から, より優れた異常検知器, 効果的なハードウェアおよびシステムレベルの防御の必要性が示唆された。
論文 参考訳(メタデータ) (2022-07-20T19:49:09Z) - Fixed Points in Cyber Space: Rethinking Optimal Evasion Attacks in the
Age of AI-NIDS [70.60975663021952]
ネットワーク分類器に対するブラックボックス攻撃について検討する。
我々は、アタッカー・ディフェンダーの固定点がそれ自体、複雑な位相遷移を持つ一般サムゲームであると主張する。
攻撃防御力学の研究には連続的な学習手法が必要であることを示す。
論文 参考訳(メタデータ) (2021-11-23T23:42:16Z) - Targeted Attack on Deep RL-based Autonomous Driving with Learned Visual
Patterns [18.694795507945603]
近年の研究では、敵の攻撃に対する深い強化学習を通じて学んだコントロールポリシーの脆弱性が実証されている。
本研究では, 物理的対象物に配置した視覚的学習パターンを用いて, 標的攻撃の実現可能性について検討する。
論文 参考訳(メタデータ) (2021-09-16T04:59:06Z) - Evaluating the Robustness of Semantic Segmentation for Autonomous
Driving against Real-World Adversarial Patch Attacks [62.87459235819762]
自動運転車のような現実のシナリオでは、現実の敵例(RWAE)にもっと注意を払わなければならない。
本稿では,デジタルおよび実世界の敵対パッチの効果を検証し,一般的なSSモデルのロバスト性を詳細に評価する。
論文 参考訳(メタデータ) (2021-08-13T11:49:09Z) - Reinforcement Learning for Robust Parameterized Locomotion Control of
Bipedal Robots [121.42930679076574]
シミュレーションにおけるロコモーションポリシをトレーニングするためのモデルフリー強化学習フレームワークを提案する。
ドメインランダム化は、システムダイナミクスのバリエーションにまたがる堅牢な振る舞いを学ぶためのポリシーを奨励するために使用されます。
本研究では、目標歩行速度、歩行高さ、旋回ヨーなどの多目的歩行行動について示す。
論文 参考訳(メタデータ) (2021-03-26T07:14:01Z) - Learning a Contact-Adaptive Controller for Robust, Efficient Legged
Locomotion [95.1825179206694]
四足歩行ロボットのためのロバストコントローラを合成するフレームワークを提案する。
高レベルコントローラは、環境の変化に応じてプリミティブのセットを選択することを学習する。
確立された制御方法を使用してプリミティブを堅牢に実行する低レベルコントローラ。
論文 参考訳(メタデータ) (2020-09-21T16:49:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。