論文の概要: Learning from the Good Ones: Risk Profiling-Based Defenses Against Evasion Attacks on DNNs
- arxiv url: http://arxiv.org/abs/2505.06477v1
- Date: Sat, 10 May 2025 00:33:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-13 20:21:48.858588
- Title: Learning from the Good Ones: Risk Profiling-Based Defenses Against Evasion Attacks on DNNs
- Title(参考訳): 良いことから学ぶ:DNNの侵入攻撃に対するリスクプロファイリングに基づく防御
- Authors: Mohammed Elnawawy, Gargi Mitra, Shahrear Iqbal, Karthik Pattabiraman,
- Abstract要約: 安全クリティカルなアプリケーションは、予測と推論にディープニューラルネットワーク(DNN)を使用する。
本稿では,リスク認識戦略を用いて静的防御を選択的に訓練するリスクプロファイリングフレームワークを提案する。
重症度が低い患者に対して選択的トレーニングを行うことで,27.5%のリコールが達成され,精度への影響は最小限であった。
- 参考スコア(独自算出の注目度): 4.837320865223376
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Safety-critical applications such as healthcare and autonomous vehicles use deep neural networks (DNN) to make predictions and infer decisions. DNNs are susceptible to evasion attacks, where an adversary crafts a malicious data instance to trick the DNN into making wrong decisions at inference time. Existing defenses that protect DNNs against evasion attacks are either static or dynamic. Static defenses are computationally efficient but do not adapt to the evolving threat landscape, while dynamic defenses are adaptable but suffer from an increased computational overhead. To combine the best of both worlds, in this paper, we propose a novel risk profiling framework that uses a risk-aware strategy to selectively train static defenses using victim instances that exhibit the most resilient features and are hence more resilient against an evasion attack. We hypothesize that training existing defenses on instances that are less vulnerable to the attack enhances the adversarial detection rate by reducing false negatives. We evaluate the efficacy of our risk-aware selective training strategy on a blood glucose management system that demonstrates how training static anomaly detectors indiscriminately may result in an increased false negative rate, which could be life-threatening in safety-critical applications. Our experiments show that selective training on the less vulnerable patients achieves a recall increase of up to 27.5\% with minimal impact on precision compared to indiscriminate training.
- Abstract(参考訳): 医療や自動運転車などの安全に重要なアプリケーションは、ディープニューラルネットワーク(DNN)を使用して予測と推論を行う。
DNNは、敵が悪意のあるデータインスタンスを作成して、DNNを騙して推論時に間違った判断を下すという、回避攻撃の影響を受けやすい。
DNNを回避攻撃から守る既存の防御は、静的か動的かのいずれかである。
静的防御は計算効率が良いが、進化する脅威の状況には適応しないが、動的防御は適応可能であるが、計算オーバーヘッドの増加に悩まされている。
両世界の長所を組み合わせるために,リスク対応戦略を用いたリスクプロファイリングフレームワークを提案する。
攻撃に弱いインスタンスに対する既存の防御の訓練は、偽陰性を減らすことによって敵検出率を高めるという仮説を立てる。
静的な異常検知器を無差別に訓練すると、偽陰性率が増加し、安全クリティカルなアプリケーションでは致命的な危険が生じる可能性があることを実証した血糖管理システムにおけるリスク認識選択的トレーニング戦略の有効性を評価する。
本実験は, 重症度が低い患者に対する選択的トレーニングが, 無差別トレーニングと比較して, 精度への影響を最小限に抑えながら, 27.5\%のリコールを達成できることを示唆した。
関連論文リスト
- Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Denoising Autoencoder-based Defensive Distillation as an Adversarial
Robustness Algorithm [0.0]
敵対的攻撃はディープニューラルネットワーク(DNN)の堅牢性を著しく脅かす
本研究は, 防衛蒸留機構をデノナイジングオートエンコーダ(DAE)と組み合わせた新しい手法を提案する。
論文 参考訳(メタデータ) (2023-03-28T11:34:54Z) - An Incremental Gray-box Physical Adversarial Attack on Neural Network
Training [36.244907785240876]
本稿では、ニューラルネットワークのトレーニングプロセスをターゲットにした、勾配のないグレーボックスインクリメンタルアタックを提案する。
提案した攻撃は、一般的に専門家によって守られていないデータ構造を攻撃することによって、そのリスクの高い特性を取得する。
論文 参考訳(メタデータ) (2023-02-20T09:48:11Z) - Fixed Points in Cyber Space: Rethinking Optimal Evasion Attacks in the
Age of AI-NIDS [70.60975663021952]
ネットワーク分類器に対するブラックボックス攻撃について検討する。
我々は、アタッカー・ディフェンダーの固定点がそれ自体、複雑な位相遷移を持つ一般サムゲームであると主張する。
攻撃防御力学の研究には連続的な学習手法が必要であることを示す。
論文 参考訳(メタデータ) (2021-11-23T23:42:16Z) - Towards Evaluating the Robustness of Neural Networks Learned by
Transduction [44.189248766285345]
Greedy Model Space Attack (GMSA)は、トランスダクティブ学習に基づく防御を評価するための新しいベースラインとして機能する攻撃フレームワークである。
GMSAは, 弱いインスタンス化であっても, 従来のトランスダクティブ・ラーニングに基づく防御を破ることができることを示す。
論文 参考訳(メタデータ) (2021-10-27T19:39:50Z) - Mitigating Gradient-based Adversarial Attacks via Denoising and
Compression [7.305019142196582]
深層ニューラルネットワークに対する勾配に基づく逆攻撃は深刻な脅威となる。
それらは、任意のネットワークのテストデータに不可避な摂動を追加することでデプロイできる。
デノイジングと寸法減少は、そのような攻撃に対抗するために調査された2つの異なる方法である。
論文 参考訳(メタデータ) (2021-04-03T22:57:01Z) - What Doesn't Kill You Makes You Robust(er): Adversarial Training against
Poisons and Backdoors [57.040948169155925]
敵対的なトレーニングフレームワークを拡張し、(訓練時間)中毒やバックドア攻撃から防御します。
本手法は, トレーニング中に毒を発生させ, トレーニングバッチに注入することにより, ネットワークを中毒の影響に敏感化する。
この防御は、適応攻撃に耐え、多様な脅威モデルに一般化し、以前の防御よりも優れた性能のトレードオフをもたらすことを示す。
論文 参考訳(メタデータ) (2021-02-26T17:54:36Z) - Adversarial defense for automatic speaker verification by cascaded
self-supervised learning models [101.42920161993455]
ますます悪意のある攻撃者は、自動話者検証(ASV)システムで敵攻撃を仕掛けようとする。
本稿では,逐次的自己教師付き学習モデルに基づく標準的かつ攻撃非依存な手法を提案する。
実験により, 本手法は効果的な防御性能を実現し, 敵攻撃に対抗できることを示した。
論文 参考訳(メタデータ) (2021-02-14T01:56:43Z) - Guided Adversarial Attack for Evaluating and Enhancing Adversarial
Defenses [59.58128343334556]
我々は、より適切な勾配方向を見つけ、攻撃効果を高め、より効率的な対人訓練をもたらす標準損失に緩和項を導入する。
本稿では, クリーン画像の関数マッピングを用いて, 敵生成を誘導するGAMA ( Guided Adversarial Margin Attack) を提案する。
また,一段防衛における最先端性能を実現するためのGAT ( Guided Adversarial Training) を提案する。
論文 参考訳(メタデータ) (2020-11-30T16:39:39Z) - A Data Augmentation-based Defense Method Against Adversarial Attacks in
Neural Networks [7.943024117353317]
そこで本研究では,実生活制約に適合した完全ホワイトボックス攻撃を効果的に無効化する軽量防衛手法を開発した。
我々のモデルは、50発のBPDAによる高度な適応攻撃に耐えることができ、攻撃成功率をほぼゼロに抑えながら、目標モデルが約80%の精度を維持するのに役立ちます。
論文 参考訳(メタデータ) (2020-07-30T08:06:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。