論文の概要: Automating Defense Against Adversarial Attacks: Discovery of
Vulnerabilities and Application of Multi-INT Imagery to Protect Deployed
Models
- arxiv url: http://arxiv.org/abs/2103.15897v1
- Date: Mon, 29 Mar 2021 19:07:55 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-01 08:05:40.830138
- Title: Automating Defense Against Adversarial Attacks: Discovery of
Vulnerabilities and Application of Multi-INT Imagery to Protect Deployed
Models
- Title(参考訳): 敵攻撃に対する防御の自動化:脆弱性の発見と多点画像の展開モデル保護への応用
- Authors: Josh Kalin, David Noever, Matthew Ciolino, Dominick Hambrick, Gerry
Dozier
- Abstract要約: マルチスペクトル画像アレイとアンサンブル学習者が敵対的攻撃と戦うことを評価します。
サイバーネットワークを守るために、攻撃的(赤チーム)と防御的(青チーム)の両方のアプローチのテクニックを大まかに組み合わせます。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Image classification is a common step in image recognition for machine
learning in overhead applications. When applying popular model architectures
like MobileNetV2, known vulnerabilities expose the model to counter-attacks,
either mislabeling a known class or altering box location. This work proposes
an automated approach to defend these models. We evaluate the use of
multi-spectral image arrays and ensemble learners to combat adversarial
attacks. The original contribution demonstrates the attack, proposes a remedy,
and automates some key outcomes for protecting the model's predictions against
adversaries. In rough analogy to defending cyber-networks, we combine
techniques from both offensive ("red team") and defensive ("blue team")
approaches, thus generating a hybrid protective outcome ("green team"). For
machine learning, we demonstrate these methods with 3-color channels plus
infrared for vehicles. The outcome uncovers vulnerabilities and corrects them
with supplemental data inputs commonly found in overhead cases particularly.
- Abstract(参考訳): 画像分類は、オーバーヘッドアプリケーションにおける機械学習のための画像認識の一般的なステップである。
MobileNetV2のような一般的なモデルアーキテクチャを適用する場合、既知の脆弱性は、既知のクラスを誤ってラベル付けしたり、ボックスの位置を変更したりして、モデルに反撃する。
この研究は、これらのモデルを守るための自動化アプローチを提案する。
我々は,マルチスペクトル画像アレイとアンサンブル学習器を用いて,敵対的攻撃と戦うことを評価する。
オリジナルのコントリビューションは攻撃を実証し、治療を提案し、敵に対するモデルの予測を保護するためにいくつかの重要な結果を自動化する。
サイバーネットワークの防衛と大まかに類似した方法では、攻撃的(赤チーム)と防御的(青チーム)の両方の手法を組み合わせて、ハイブリッドな保護結果(緑チーム)を生成します。
機械学習では、これらの手法を車載用3色チャネルと赤外線で実演する。
その結果脆弱性を発見し、特にオーバーヘッドケースでよく見られる補足的なデータ入力で修正する。
関連論文リスト
- AdvQDet: Detecting Query-Based Adversarial Attacks with Adversarial Contrastive Prompt Tuning [93.77763753231338]
CLIP画像エンコーダを微調整し、2つの中間対向クエリに対して同様の埋め込みを抽出するために、ACPT(Adversarial Contrastive Prompt Tuning)を提案する。
我々は,ACPTが7つの最先端クエリベースの攻撃を検出できることを示す。
また,ACPTは3種類のアダプティブアタックに対して堅牢であることを示す。
論文 参考訳(メタデータ) (2024-08-04T09:53:50Z) - Can Adversarial Examples Be Parsed to Reveal Victim Model Information? [62.814751479749695]
本研究では,データ固有の敵インスタンスから,データに依存しない被害者モデル(VM)情報を推測できるかどうかを問う。
我々は,135件の被害者モデルから生成された7種類の攻撃に対して,敵攻撃のデータセットを収集する。
単純な教師付きモデル解析ネットワーク(MPN)は、見えない敵攻撃からVM属性を推測できることを示す。
論文 参考訳(メタデータ) (2023-03-13T21:21:49Z) - An integrated Auto Encoder-Block Switching defense approach to prevent
adversarial attacks [0.0]
逆入力サンプルに対する最先端のニューラルネットワークの脆弱性は、劇的に増大している。
本稿では,自動エンコーダとブロックスイッチングアーキテクチャを組み合わせたディフェンスアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-03-11T10:58:24Z) - Towards A Conceptually Simple Defensive Approach for Few-shot
classifiers Against Adversarial Support Samples [107.38834819682315]
本研究は,数発の分類器を敵攻撃から守るための概念的簡便なアプローチについて検討する。
本稿では,自己相似性とフィルタリングの概念を用いた簡易な攻撃非依存検出法を提案する。
ミニイメージネット(MI)とCUBデータセットの攻撃検出性能は良好である。
論文 参考訳(メタデータ) (2021-10-24T05:46:03Z) - ExAD: An Ensemble Approach for Explanation-based Adversarial Detection [17.455233006559734]
説明手法のアンサンブルを用いて逆例を検出するフレームワークであるExADを提案する。
3つの画像データセットに対する6つの最先端の敵攻撃によるアプローチの評価を行った。
論文 参考訳(メタデータ) (2021-03-22T00:53:07Z) - An Empirical Review of Adversarial Defenses [0.913755431537592]
このようなシステムの基礎を形成するディープニューラルネットワークは、敵対攻撃と呼ばれる特定のタイプの攻撃に非常に影響を受けやすい。
ハッカーは、最小限の計算でも、敵対的な例(他のクラスに属するイメージやデータポイント)を生成し、そのようなアルゴリズムの基礎を崩壊させることができます。
本稿では,DropoutとDenoising Autoencodersの2つの効果的な手法を示し,そのような攻撃がモデルを騙すのを防ぐことに成功したことを示す。
論文 参考訳(メタデータ) (2020-12-10T09:34:41Z) - Omni: Automated Ensemble with Unexpected Models against Adversarial
Evasion Attack [35.0689225703137]
機械学習に基づくセキュリティ検出モデルは、敵の回避攻撃の影響を受けやすい。
我々はオムニ(Omni)と呼ばれる手法を提案し、「予期せぬモデル」のアンサンブルを作成する方法を探る。
5種類の敵対的回避攻撃による研究において,オムニは防衛戦略として有望なアプローチであることを示す。
論文 参考訳(メタデータ) (2020-11-23T20:02:40Z) - Online Alternate Generator against Adversarial Attacks [144.45529828523408]
ディープラーニングモデルは、実際の画像に準知覚可能なノイズを加えることによって合成される敵の例に非常に敏感である。
対象ネットワークのパラメータをアクセスしたり変更したりする必要のない,ポータブルな防御手法であるオンライン代替ジェネレータを提案する。
提案手法は,入力画像のスクラッチから別の画像をオンライン合成することで,対向雑音を除去・破壊する代わりに機能する。
論文 参考訳(メタデータ) (2020-09-17T07:11:16Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z) - Using an ensemble color space model to tackle adversarial examples [22.732023268348787]
このような攻撃を防御する3段階の手法を提案する。
まず,統計的手法を用いて画像の識別を行う。
第二に、同じモデルに複数の色空間を採用することは、これらの敵対的攻撃と戦うのに役立ちます。
論文 参考訳(メタデータ) (2020-03-10T21:20:53Z) - Deflecting Adversarial Attacks [94.85315681223702]
我々は、攻撃者が攻撃対象クラスに似た入力を生成することによって、敵攻撃を「防御」するこのサイクルを終わらせる新しいアプローチを提案する。
本稿ではまず,3つの検出機構を組み合わせたカプセルネットワークに基づくより強力な防御手法を提案する。
論文 参考訳(メタデータ) (2020-02-18T06:59:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。