論文の概要: UnMask: Adversarial Detection and Defense Through Robust Feature
Alignment
- arxiv url: http://arxiv.org/abs/2002.09576v2
- Date: Sat, 14 Nov 2020 20:21:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-30 01:21:24.223406
- Title: UnMask: Adversarial Detection and Defense Through Robust Feature
Alignment
- Title(参考訳): UnMask:ロバストな特徴アライメントによる敵検出と防御
- Authors: Scott Freitas, Shang-Tse Chen, Zijie J. Wang, Duen Horng Chau
- Abstract要約: ディープラーニングモデルは、自動運転車から医療診断まで、幅広い影響の大きいセキュリティクリティカルなシステムに統合されている。
近年の研究では、これらのディープラーニングアーキテクチャの多くは敵の攻撃に弱いことが示されている。
我々は,ロバストな特徴アライメントに基づく敵検出・防御フレームワークUnMaskを開発した。
- 参考スコア(独自算出の注目度): 12.245288683492255
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning models are being integrated into a wide range of high-impact,
security-critical systems, from self-driving cars to medical diagnosis.
However, recent research has demonstrated that many of these deep learning
architectures are vulnerable to adversarial attacks--highlighting the vital
need for defensive techniques to detect and mitigate these attacks before they
occur. To combat these adversarial attacks, we developed UnMask, an adversarial
detection and defense framework based on robust feature alignment. The core
idea behind UnMask is to protect these models by verifying that an image's
predicted class ("bird") contains the expected robust features (e.g., beak,
wings, eyes). For example, if an image is classified as "bird", but the
extracted features are wheel, saddle and frame, the model may be under attack.
UnMask detects such attacks and defends the model by rectifying the
misclassification, re-classifying the image based on its robust features. Our
extensive evaluation shows that UnMask (1) detects up to 96.75% of attacks, and
(2) defends the model by correctly classifying up to 93% of adversarial images
produced by the current strongest attack, Projected Gradient Descent, in the
gray-box setting. UnMask provides significantly better protection than
adversarial training across 8 attack vectors, averaging 31.18% higher accuracy.
We open source the code repository and data with this paper:
https://github.com/safreita1/unmask.
- Abstract(参考訳): ディープラーニングモデルは、自動運転車から医療診断まで、幅広い影響の大きいセキュリティクリティカルなシステムに統合されている。
しかし、近年の研究では、これらのディープラーニングアーキテクチャの多くは、敵の攻撃に対して脆弱であることを実証している。
これらの敵攻撃に対抗するために,ロバストな特徴アライメントに基づく敵検出・防御フレームワークUnMaskを開発した。
UnMaskの基本的な考え方は、画像の予測されたクラス(バード)が期待される堅牢な特徴(例えば、くちばし、翼、目)を含んでいることを検証することでこれらのモデルを保護することである。
例えば、画像が「鳥」に分類されるが、抽出された特徴が車輪、サドル、フレームである場合、モデルは攻撃を受ける可能性がある。
UnMaskはそのような攻撃を検出し、誤分類を修正し、堅牢な機能に基づいてイメージを再分類することでモデルを防御する。
我々は,UnMask (1)が96.75%の攻撃を検知し,(2)現在最強の攻撃であるプロジェクテッドグラディエント・ディフレッシュによって生成された93%の敵画像をグレーボックス設定で正しく分類することでモデルを擁護することを示した。
UnMaskは8つの攻撃ベクトルにわたる敵の訓練よりもはるかに優れた保護を提供し、平均的な精度は31.18%である。
この論文では、コードリポジトリとデータをオープンソースにしています。
関連論文リスト
- Gradient Masking All-at-Once: Ensemble Everything Everywhere Is Not Robust [65.95797963483729]
あらゆるものをアンサンブルすることは、敵の例に対する防御である。
この防御は敵の攻撃に対して堅牢ではないことを示す。
次に、標準的なアダプティブアタック技術を用いて、防御の堅牢な精度を低下させる。
論文 参考訳(メタデータ) (2024-11-22T10:17:32Z) - MASKDROID: Robust Android Malware Detection with Masked Graph Representations [56.09270390096083]
マルウェアを識別する強力な識別能力を持つ強力な検出器MASKDROIDを提案する。
我々は、グラフニューラルネットワークベースのフレームワークにマスキング機構を導入し、MASKDROIDに入力グラフ全体の復元を強制する。
この戦略により、モデルは悪意のあるセマンティクスを理解し、より安定した表現を学習し、敵攻撃に対する堅牢性を高めることができる。
論文 参考訳(メタデータ) (2024-09-29T07:22:47Z) - Meta Invariance Defense Towards Generalizable Robustness to Unknown Adversarial Attacks [62.036798488144306]
現在の防衛は主に既知の攻撃に焦点を当てているが、未知の攻撃に対する敵意の強固さは見過ごされている。
メタ不変防衛(Meta Invariance Defense, MID)と呼ばれる攻撃非依存の防御手法を提案する。
MIDは高レベルの画像分類と低レベルの頑健な画像再生における攻撃抑制において,知覚不能な逆方向の摂動に対して同時に頑健性を実現する。
論文 参考訳(メタデータ) (2024-04-04T10:10:38Z) - Improving behavior based authentication against adversarial attack using XAI [3.340314613771868]
本稿では,eXplainable AI(XAI)をベースとした,このようなシナリオにおける敵攻撃に対する防御戦略を提案する。
本手法で訓練した特徴セレクタは,元の認証器の前のフィルタとして使用することができる。
我々は,XAIをベースとした防衛戦略が敵の攻撃に対して有効であり,他の防衛戦略よりも優れていることを実証する。
論文 参考訳(メタデータ) (2024-02-26T09:29:05Z) - The Best Defense is a Good Offense: Adversarial Augmentation against
Adversarial Attacks [91.56314751983133]
A5$は、手元の入力に対する攻撃が失敗することを保証するために防御的摂動を構築するためのフレームワークである。
我々は,地上の真理ラベルを無視するロバスト化ネットワークを用いて,実機での防御強化を効果的に示す。
また、A5$を適用して、確実に堅牢な物理オブジェクトを作成する方法も示します。
論文 参考訳(メタデータ) (2023-05-23T16:07:58Z) - Mask and Restore: Blind Backdoor Defense at Test Time with Masked
Autoencoder [57.739693628523]
Masked AutoEncoder (BDMAE) を用いたブラインドバックドア防御のためのフレームワークを提案する。
BDMAEは、画像構造的類似性とテスト画像とMAE復元の間のラベル整合性を用いて、トークン空間で可能なトリガを検出する。
私たちのアプローチは、モデル復元、パターンのトリガー、画像の良心に盲目です。
論文 参考訳(メタデータ) (2023-03-27T19:23:33Z) - MultiRobustBench: Benchmarking Robustness Against Multiple Attacks [86.70417016955459]
機械学習(ML)モデルに対するマルチアタックを検討するための,最初の統一フレームワークを提案する。
我々のフレームワークは、テストタイムの敵について異なるレベルの学習者の知識をモデル化することができる。
9種類の攻撃に対して16種類の防御モデルの有効性を評価した。
論文 参考訳(メタデータ) (2023-02-21T20:26:39Z) - Btech thesis report on adversarial attack detection and purification of
adverserially attacked images [0.0]
本論文は, 負の攻撃を受けた画像の検出と浄化に関するものである。
ディープラーニングモデルは、分類、回帰などの様々なタスクのための特定のトレーニング例に基づいて訓練される。
論文 参考訳(メタデータ) (2022-05-09T09:24:11Z) - Automating Defense Against Adversarial Attacks: Discovery of
Vulnerabilities and Application of Multi-INT Imagery to Protect Deployed
Models [0.0]
マルチスペクトル画像アレイとアンサンブル学習者が敵対的攻撃と戦うことを評価します。
サイバーネットワークを守るために、攻撃的(赤チーム)と防御的(青チーム)の両方のアプローチのテクニックを大まかに組み合わせます。
論文 参考訳(メタデータ) (2021-03-29T19:07:55Z) - Robust SleepNets [7.23389716633927]
本研究では,運転者の脱着や運転者の眠気にかかわる事故を防止するために,視線閉鎖性検出について検討した。
目の閉鎖度を検出するための2つのモデル:目の画像の最初のモデルと顔の画像の2番目のモデル。
我々は,予測グラディエント Descent,Fast Gradient Sign,DeepFool メソッドでモデルに逆襲し,逆襲成功率を報告する。
論文 参考訳(メタデータ) (2021-02-24T20:48:13Z) - An Empirical Review of Adversarial Defenses [0.913755431537592]
このようなシステムの基礎を形成するディープニューラルネットワークは、敵対攻撃と呼ばれる特定のタイプの攻撃に非常に影響を受けやすい。
ハッカーは、最小限の計算でも、敵対的な例(他のクラスに属するイメージやデータポイント)を生成し、そのようなアルゴリズムの基礎を崩壊させることができます。
本稿では,DropoutとDenoising Autoencodersの2つの効果的な手法を示し,そのような攻撃がモデルを騙すのを防ぐことに成功したことを示す。
論文 参考訳(メタデータ) (2020-12-10T09:34:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。