論文の概要: Online Evasion Attacks on Recurrent Models:The Power of Hallucinating
the Future
- arxiv url: http://arxiv.org/abs/2207.09912v1
- Date: Fri, 8 Jul 2022 11:06:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-24 11:44:57.354032
- Title: Online Evasion Attacks on Recurrent Models:The Power of Hallucinating
the Future
- Title(参考訳): リカレントモデルに対するオンライン回避攻撃:未来への幻覚の力
- Authors: Byunggill Joe, Insik Shin and Jihun Hamm
- Abstract要約: 本稿では,オンライン設定に特有の制約を取り入れた,オンラインタスクに対する汎用攻撃フレームワークを提案する。
我々はまた、未来を幻覚させる予測攻撃と呼ばれる新しい白い箱攻撃を提示する。
- 参考スコア(独自算出の注目度): 14.001389000402584
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recurrent models are frequently being used in online tasks such as autonomous
driving, and a comprehensive study of their vulnerability is called for.
Existing research is limited in generality only addressing application-specific
vulnerability or making implausible assumptions such as the knowledge of future
input. In this paper, we present a general attack framework for online tasks
incorporating the unique constraints of the online setting different from
offline tasks. Our framework is versatile in that it covers time-varying
adversarial objectives and various optimization constraints, allowing for a
comprehensive study of robustness. Using the framework, we also present a novel
white-box attack called Predictive Attack that `hallucinates' the future. The
attack achieves 98 percent of the performance of the ideal but infeasible
clairvoyant attack on average. We validate the effectiveness of the proposed
framework and attacks through various experiments.
- Abstract(参考訳): リカレントモデルは、自律運転などのオンラインタスクで頻繁に使用され、その脆弱性に関する包括的な研究が求められている。
既存の研究は、アプリケーション固有の脆弱性に対処するか、将来の入力の知識のような意味のない仮定をするだけに限られている。
本稿では,オフラインタスクとは異なるオンライン設定のユニークな制約を組み込んだオンラインタスクの汎用攻撃フレームワークを提案する。
我々のフレームワークは、時間変化の相反する目標と様々な最適化制約をカバーし、堅牢性に関する包括的な研究を可能にする。
また,このフレームワークを用いて,未来を「幻覚」する予測攻撃という,新しいホワイトボックス攻撃を提示する。
この攻撃は、理想的だが実行不可能な透視的攻撃の98%を平均で達成する。
提案手法の有効性を検証するため,様々な実験を行った。
関連論文リスト
- Sustainable Self-evolution Adversarial Training [51.25767996364584]
対戦型防衛モデルのための持続的自己進化支援訓練(SSEAT)フレームワークを提案する。
本研究は,様々な種類の対角的事例から学習を実現するために,連続的な対向防衛パイプラインを導入する。
また,より多様で重要な再学習データを選択するために,逆データ再生モジュールを提案する。
論文 参考訳(メタデータ) (2024-12-03T08:41:11Z) - From Sands to Mansions: Simulating Full Attack Chain with LLM-Organized Knowledge [10.065241604400223]
マルチステージ攻撃シミュレーションはシステム評価効率を高めるための有望なアプローチを提供する。
完全なアタックチェーンをシミュレートするのは複雑で、セキュリティ専門家からはかなりの時間と専門知識が必要です。
我々は、外部攻撃ツールと脅威情報レポートに基づいて、完全な攻撃チェーンを自律的にシミュレートするシステムであるAuroraを紹介する。
論文 参考訳(メタデータ) (2024-07-24T01:33:57Z) - Mutual-modality Adversarial Attack with Semantic Perturbation [81.66172089175346]
本稿では,相互モダリティ最適化スキームにおける敵攻撃を生成する新しい手法を提案する。
我々の手法は最先端の攻撃方法より優れており、プラグイン・アンド・プレイ・ソリューションとして容易にデプロイできる。
論文 参考訳(メタデータ) (2023-12-20T05:06:01Z) - Attention-Based Real-Time Defenses for Physical Adversarial Attacks in
Vision Applications [58.06882713631082]
ディープニューラルネットワークはコンピュータビジョンタスクにおいて優れたパフォーマンスを示すが、現実の敵攻撃に対する脆弱性は深刻なセキュリティ上の懸念を引き起こす。
本稿では、敵チャネルの注意力を利用して、浅いネットワーク層における悪意のある物体を素早く識別・追跡する、効果的な注意に基づく防御機構を提案する。
また、効率的な多フレーム防御フレームワークを導入し、防御性能と計算コストの両方を評価することを目的とした広範な実験を通じて、その有効性を検証した。
論文 参考訳(メタデータ) (2023-11-19T00:47:17Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Black-Box Targeted Reward Poisoning Attack Against Online Deep
Reinforcement Learning [2.3526458707956643]
トレーニング期間中の報酬中毒によるオンライン深層学習に対する最初のブラックボックス攻撃を提案する。
我々の攻撃は未知のアルゴリズムによって学習された未知のダイナミクスを持つ一般的な環境に適用できる。
論文 参考訳(メタデータ) (2023-05-18T03:37:29Z) - Resisting Deep Learning Models Against Adversarial Attack
Transferability via Feature Randomization [17.756085566366167]
本研究では,ディープラーニングモデルを対象とした8つの敵攻撃に抵抗する特徴ランダム化に基づく手法を提案する。
本手法は,標的ネットワークを確保でき,敵の攻撃伝達可能性に対して60%以上抵抗することができる。
論文 参考訳(メタデータ) (2022-09-11T20:14:12Z) - Fixed Points in Cyber Space: Rethinking Optimal Evasion Attacks in the
Age of AI-NIDS [70.60975663021952]
ネットワーク分類器に対するブラックボックス攻撃について検討する。
我々は、アタッカー・ディフェンダーの固定点がそれ自体、複雑な位相遷移を持つ一般サムゲームであると主張する。
攻撃防御力学の研究には連続的な学習手法が必要であることを示す。
論文 参考訳(メタデータ) (2021-11-23T23:42:16Z) - Measurement-driven Security Analysis of Imperceptible Impersonation
Attacks [54.727945432381716]
本稿では,ディープニューラルネットワークを用いた顔認識システムの実用性について検討する。
皮膚の色,性別,年齢などの要因が,特定の標的に対する攻撃を行う能力に影響を及ぼすことを示す。
また,攻撃者の顔のさまざまなポーズや視点に対して堅牢なユニバーサルアタックを構築する可能性についても検討した。
論文 参考訳(メタデータ) (2020-08-26T19:27:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。