論文の概要: Illusory Attacks: Detectability Matters in Adversarial Attacks on
Sequential Decision-Makers
- arxiv url: http://arxiv.org/abs/2207.10170v3
- Date: Tue, 20 Jun 2023 17:11:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-22 05:57:25.477463
- Title: Illusory Attacks: Detectability Matters in Adversarial Attacks on
Sequential Decision-Makers
- Title(参考訳): 偶発的攻撃: 逐次的意思決定者に対する敵攻撃における検出可能性の問題
- Authors: Tim Franzmeyer, Stephen McAleer, Jo\~ao F. Henriques, Jakob N.
Foerster, Philip H.S. Torr, Adel Bibi, Christian Schroeder de Witt
- Abstract要約: 既存の強化学習エージェントに対する観測空間攻撃は共通の弱点を有することを示す。
提案手法は, 有効かつ統計的に検出不可能な, 逐次的意思決定者に対する新たな攻撃形態である完全照準攻撃を導入する。
従来の攻撃と比較すると、R攻撃は自動で検出するのがかなり難しいことが実証されている。
- 参考スコア(独自算出の注目度): 74.8408990716076
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Autonomous agents deployed in the real world need to be robust against
adversarial attacks on sensory inputs. Robustifying agent policies requires
anticipating the strongest attacks possible. We demonstrate that existing
observation-space attacks on reinforcement learning agents have a common
weakness: while effective, their lack of temporal consistency makes them
detectable using automated means or human inspection. Detectability is
undesirable to adversaries as it may trigger security escalations. We introduce
perfect illusory attacks, a novel form of adversarial attack on sequential
decision-makers that is both effective and provably statistically undetectable.
We then propose the more versatile R-attacks, which result in observation
transitions that are consistent with the state-transition function of the
adversary-free environment and can be learned end-to-end. Compared to existing
attacks, we empirically find R-attacks to be significantly harder to detect
with automated methods, and a small study with human subjects suggests they are
similarly harder to detect for humans. We propose that undetectability should
be a central concern in the study of adversarial attacks on mixed-autonomy
settings.
- Abstract(参考訳): 現実世界に展開する自律エージェントは、感覚入力に対する敵対的な攻撃に対して堅牢でなければならない。
ロバスティフィケーション・エージェント・ポリシーは可能な限り最強の攻撃を予想する必要がある。
我々は、強化学習エージェントに対する既存の観測空間攻撃は共通の弱点があることを示し、その効果はあるものの、時間的整合性の欠如により、自動的な手段や人間の検査によって検出できることを示した。
検出性は、セキュリティエスカレーションを引き起こす可能性があるため、敵にとっては望ましくない。
提案手法は,有効かつ統計的に検出不可能な逐次的意思決定者に対する新たな攻撃形態である完全照準攻撃を導入する。
次に,より汎用的なr-アタックを提案する。これは逆境のない環境の状態遷移関数と一致し,エンドツーエンドで学習できる観察遷移をもたらす。
既存の攻撃と比較すると、r攻撃は自動的な方法で検出するのがかなり難しいと経験的に感じており、人間との小さな研究によると、人間にも検出が困難であることが示唆されている。
混合自律度設定に対する敵対的攻撃の研究において、非検出性は中心的な関心事であるべきである。
関連論文リスト
- Fortify the Guardian, Not the Treasure: Resilient Adversarial Detectors [0.0]
アダプティブアタックとは、攻撃者が防御を意識し、その戦略を適応させる攻撃である。
提案手法は, クリーンな精度を損なうことなく, 敵の訓練を活用して攻撃を検知する能力を強化する。
CIFAR-10とSVHNデータセットの実験的評価により,提案アルゴリズムは,適応的敵攻撃を正確に識別する検出器の能力を大幅に向上することを示した。
論文 参考訳(メタデータ) (2024-04-18T12:13:09Z) - RobustSense: Defending Adversarial Attack for Secure Device-Free Human
Activity Recognition [37.387265457439476]
我々は、共通の敵攻撃を防御する新しい学習フレームワーク、RobustSenseを提案する。
本手法は,無線による人間行動認識と人物識別システムに有効である。
論文 参考訳(メタデータ) (2022-04-04T15:06:03Z) - Zero-Query Transfer Attacks on Context-Aware Object Detectors [95.18656036716972]
敵は、ディープニューラルネットワークが誤った分類結果を生成するような摂動画像を攻撃する。
自然の多目的シーンに対する敵対的攻撃を防御するための有望なアプローチは、文脈整合性チェックを課すことである。
本稿では,コンテキスト整合性チェックを回避可能な,コンテキスト整合性攻撃を生成するための最初のアプローチを提案する。
論文 参考訳(メタデータ) (2022-03-29T04:33:06Z) - Adversarial Robustness of Deep Reinforcement Learning based Dynamic
Recommender Systems [50.758281304737444]
本稿では,強化学習に基づく対話型レコメンデーションシステムにおける敵例の探索と攻撃検出を提案する。
まず、入力に摂動を加え、カジュアルな要因に介入することで、異なる種類の逆例を作成する。
そこで,本研究では,人工データに基づく深層学習に基づく分類器による潜在的攻撃を検出することにより,推薦システムを強化した。
論文 参考訳(メタデータ) (2021-12-02T04:12:24Z) - Fixed Points in Cyber Space: Rethinking Optimal Evasion Attacks in the
Age of AI-NIDS [70.60975663021952]
ネットワーク分類器に対するブラックボックス攻撃について検討する。
我々は、アタッカー・ディフェンダーの固定点がそれ自体、複雑な位相遷移を持つ一般サムゲームであると主張する。
攻撃防御力学の研究には連続的な学習手法が必要であることを示す。
論文 参考訳(メタデータ) (2021-11-23T23:42:16Z) - The Feasibility and Inevitability of Stealth Attacks [63.14766152741211]
我々は、攻撃者が汎用人工知能システムにおける決定を制御できる新しい敵の摂動について研究する。
敵対的なデータ修正とは対照的に、ここで考慮する攻撃メカニズムには、AIシステム自体の変更が含まれる。
論文 参考訳(メタデータ) (2021-06-26T10:50:07Z) - Adversarial Attacks and Mitigation for Anomaly Detectors of
Cyber-Physical Systems [6.417955560857806]
本研究では,CPSの異常検出器とルールチェッカーを同時に回避する対向攻撃を提案する。
既存の勾配に基づくアプローチにインスパイアされた我々の敵攻撃は、センサーとアクチュエーターの値にノイズを発生させ、遺伝的アルゴリズムを使って後者を最適化する。
実世界の2つの重要なインフラテストベッドに対するアプローチを実装し、検出器の分類精度を平均50%以上下げることに成功した。
論文 参考訳(メタデータ) (2021-05-22T12:19:03Z) - Adversarial Attack Attribution: Discovering Attributable Signals in
Adversarial ML Attacks [0.7883722807601676]
自動運転車やML-as-a-serviceのような生産システムでさえ、逆の入力の影響を受けやすい。
摂動入力は、攻撃を生成するために使われるメソッドに起因できるだろうか?
敵対攻撃属性の概念を導入し、敵対攻撃における攻撃可能信号の発見可能性を調べるための単純な教師付き学習実験フレームワークを作成する。
論文 参考訳(メタデータ) (2021-01-08T08:16:41Z) - Adversarial Feature Desensitization [12.401175943131268]
本稿では,ドメイン適応分野からの洞察を基盤とした,対向ロバスト性に対する新しいアプローチを提案する。
提案手法は,入力の逆方向の摂動に対して不変な特徴を学習することを目的として,AFD(Adversarial Feature Desensitization)と呼ばれる。
論文 参考訳(メタデータ) (2020-06-08T14:20:02Z) - Adversarial vs behavioural-based defensive AI with joint, continual and
active learning: automated evaluation of robustness to deception, poisoning
and concept drift [62.997667081978825]
人工知能(AI)の最近の進歩は、サイバーセキュリティのための行動分析(UEBA)に新たな能力をもたらした。
本稿では、検出プロセスを改善し、人間の専門知識を効果的に活用することにより、この攻撃を効果的に軽減するソリューションを提案する。
論文 参考訳(メタデータ) (2020-01-13T13:54:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。