論文の概要: Illusionary Attacks on Sequential Decision Makers and Countermeasures
- arxiv url: http://arxiv.org/abs/2207.10170v1
- Date: Wed, 20 Jul 2022 19:49:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-22 12:44:33.155377
- Title: Illusionary Attacks on Sequential Decision Makers and Countermeasures
- Title(参考訳): 逐次意思決定者に対する不正攻撃とその対策
- Authors: Tim Franzmeyer, Jo\~ao F. Henriques, Jakob N. Foerster, Philip H.S.
Torr, Adel Bibi, Christian Schroeder de Witt
- Abstract要約: 我々は、被害者エージェントの世界モデルと整合した新たな攻撃形態である錯覚的攻撃に焦点を当てる。
我々は、この新たな攻撃枠組みの正式な定義を提供し、その特徴を様々な条件下で探求し、エージェントは錯覚的攻撃に対して堅牢なリアリズムフィードバックを求めなければならないと結論づける。
- 参考スコア(独自算出の注目度): 76.95379504645884
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Autonomous intelligent agents deployed to the real-world need to be robust
against adversarial attacks on sensory inputs. Existing work in reinforcement
learning focuses on minimum-norm perturbation attacks, which were originally
introduced to mimic a notion of perceptual invariance in computer vision. In
this paper, we note that such minimum-norm perturbation attacks can be
trivially detected by victim agents, as these result in observation sequences
that are not consistent with the victim agent's actions. Furthermore, many
real-world agents, such as physical robots, commonly operate under human
supervisors, which are not susceptible to such perturbation attacks. As a
result, we propose to instead focus on illusionary attacks, a novel form of
attack that is consistent with the world model of the victim agent. We provide
a formal definition of this novel attack framework, explore its characteristics
under a variety of conditions, and conclude that agents must seek realism
feedback to be robust to illusionary attacks.
- Abstract(参考訳): 現実世界に展開する自律的な知的エージェントは、感覚入力に対する敵対的な攻撃に対して堅牢でなければならない。
強化学習における既存の研究は、コンピュータビジョンにおける知覚的不変性の概念を模倣するために導入された最小限のノルム摂動攻撃に焦点を当てている。
本稿では,このような最小限の摂動攻撃が,被害者エージェントの行動と一致しない観察シーケンスの結果として,被害者エージェントによって自覚的に検出できることに注意する。
さらに、物理的なロボットのような多くの現実世界のエージェントは、通常人間の監督下で動作し、そのような摂動攻撃の影響を受けない。
そこで本研究では,被害者エージェントの世界モデルと一致した新たな攻撃形態である錯覚的攻撃に焦点を当てることを提案する。
我々は,この新しい攻撃枠組みを形式的に定義し,様々な条件下でその特性を探索し,エージェントは幻想的攻撃に頑健な現実主義的フィードバックを求める必要があると結論づける。
関連論文リスト
- Fortify the Guardian, Not the Treasure: Resilient Adversarial Detectors [0.0]
アダプティブアタックとは、攻撃者が防御を意識し、その戦略を適応させる攻撃である。
提案手法は, クリーンな精度を損なうことなく, 敵の訓練を活用して攻撃を検知する能力を強化する。
CIFAR-10とSVHNデータセットの実験的評価により,提案アルゴリズムは,適応的敵攻撃を正確に識別する検出器の能力を大幅に向上することを示した。
論文 参考訳(メタデータ) (2024-04-18T12:13:09Z) - Stealthy Backdoor Attack via Confidence-driven Sampling [49.72680157684523]
バックドア攻撃は、悪質なトリガをDNNモデルに過剰に挿入することを目的としており、テストシナリオ中に不正な制御を許可している。
既存の方法では防衛戦略に対する堅牢性が欠如しており、主に無作為な試薬を無作為に選別しながら、引き金の盗難を強化することに重点を置いている。
信頼性スコアの低いサンプルを選別し、これらの攻撃を識別・対処する上で、守備側の課題を著しく増大させる。
論文 参考訳(メタデータ) (2023-10-08T18:57:36Z) - RobustSense: Defending Adversarial Attack for Secure Device-Free Human
Activity Recognition [37.387265457439476]
我々は、共通の敵攻撃を防御する新しい学習フレームワーク、RobustSenseを提案する。
本手法は,無線による人間行動認識と人物識別システムに有効である。
論文 参考訳(メタデータ) (2022-04-04T15:06:03Z) - Zero-Query Transfer Attacks on Context-Aware Object Detectors [95.18656036716972]
敵は、ディープニューラルネットワークが誤った分類結果を生成するような摂動画像を攻撃する。
自然の多目的シーンに対する敵対的攻撃を防御するための有望なアプローチは、文脈整合性チェックを課すことである。
本稿では,コンテキスト整合性チェックを回避可能な,コンテキスト整合性攻撃を生成するための最初のアプローチを提案する。
論文 参考訳(メタデータ) (2022-03-29T04:33:06Z) - Fixed Points in Cyber Space: Rethinking Optimal Evasion Attacks in the
Age of AI-NIDS [70.60975663021952]
ネットワーク分類器に対するブラックボックス攻撃について検討する。
我々は、アタッカー・ディフェンダーの固定点がそれ自体、複雑な位相遷移を持つ一般サムゲームであると主張する。
攻撃防御力学の研究には連続的な学習手法が必要であることを示す。
論文 参考訳(メタデータ) (2021-11-23T23:42:16Z) - The Feasibility and Inevitability of Stealth Attacks [63.14766152741211]
我々は、攻撃者が汎用人工知能システムにおける決定を制御できる新しい敵の摂動について研究する。
敵対的なデータ修正とは対照的に、ここで考慮する攻撃メカニズムには、AIシステム自体の変更が含まれる。
論文 参考訳(メタデータ) (2021-06-26T10:50:07Z) - Adversarial Attacks and Mitigation for Anomaly Detectors of
Cyber-Physical Systems [6.417955560857806]
本研究では,CPSの異常検出器とルールチェッカーを同時に回避する対向攻撃を提案する。
既存の勾配に基づくアプローチにインスパイアされた我々の敵攻撃は、センサーとアクチュエーターの値にノイズを発生させ、遺伝的アルゴリズムを使って後者を最適化する。
実世界の2つの重要なインフラテストベッドに対するアプローチを実装し、検出器の分類精度を平均50%以上下げることに成功した。
論文 参考訳(メタデータ) (2021-05-22T12:19:03Z) - Adversarial Attack Attribution: Discovering Attributable Signals in
Adversarial ML Attacks [0.7883722807601676]
自動運転車やML-as-a-serviceのような生産システムでさえ、逆の入力の影響を受けやすい。
摂動入力は、攻撃を生成するために使われるメソッドに起因できるだろうか?
敵対攻撃属性の概念を導入し、敵対攻撃における攻撃可能信号の発見可能性を調べるための単純な教師付き学習実験フレームワークを作成する。
論文 参考訳(メタデータ) (2021-01-08T08:16:41Z) - Adversarial Feature Desensitization [12.401175943131268]
本稿では,ドメイン適応分野からの洞察を基盤とした,対向ロバスト性に対する新しいアプローチを提案する。
提案手法は,入力の逆方向の摂動に対して不変な特徴を学習することを目的として,AFD(Adversarial Feature Desensitization)と呼ばれる。
論文 参考訳(メタデータ) (2020-06-08T14:20:02Z) - Adversarial vs behavioural-based defensive AI with joint, continual and
active learning: automated evaluation of robustness to deception, poisoning
and concept drift [62.997667081978825]
人工知能(AI)の最近の進歩は、サイバーセキュリティのための行動分析(UEBA)に新たな能力をもたらした。
本稿では、検出プロセスを改善し、人間の専門知識を効果的に活用することにより、この攻撃を効果的に軽減するソリューションを提案する。
論文 参考訳(メタデータ) (2020-01-13T13:54:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。