論文の概要: LISArD: Learning Image Similarity to Defend Against Gray-box Adversarial Attacks
- arxiv url: http://arxiv.org/abs/2502.20562v1
- Date: Thu, 27 Feb 2025 22:02:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-03 13:43:51.215706
- Title: LISArD: Learning Image Similarity to Defend Against Gray-box Adversarial Attacks
- Title(参考訳): LISArD: グレイボックス攻撃に対する防御のイメージ類似性を学ぶ
- Authors: Joana C. Costa, Tiago Roxo, Hugo Proença, Pedro R. M. Inácio,
- Abstract要約: 対人訓練(AT)と対人蒸留(AD)は、トレーニング段階での対人的な例を含む。
グレーボックス攻撃は、攻撃者がターゲットネットワークのトレーニングに使用するアーキテクチャとデータセットを知っているが、その勾配にはアクセスできないと仮定する。
我々は、モデルがグレーボックス攻撃に弱いという実証的な証拠を提供し、計算コストや時間コストを増大させることなく、ATを含まないグレーボックス攻撃やホワイトボックス攻撃に対して堅牢性を提供する防衛機構であるLISArDを提案する。
- 参考スコア(独自算出の注目度): 13.154512864498912
- License:
- Abstract: State-of-the-art defense mechanisms are typically evaluated in the context of white-box attacks, which is not realistic, as it assumes the attacker can access the gradients of the target network. To protect against this scenario, Adversarial Training (AT) and Adversarial Distillation (AD) include adversarial examples during the training phase, and Adversarial Purification uses a generative model to reconstruct all the images given to the classifier. This paper considers an even more realistic evaluation scenario: gray-box attacks, which assume that the attacker knows the architecture and the dataset used to train the target network, but cannot access its gradients. We provide empirical evidence that models are vulnerable to gray-box attacks and propose LISArD, a defense mechanism that does not increase computational and temporal costs but provides robustness against gray-box and white-box attacks without including AT. Our method approximates a cross-correlation matrix, created with the embeddings of perturbed and clean images, to a diagonal matrix while simultaneously conducting classification learning. Our results show that LISArD can effectively protect against gray-box attacks, can be used in multiple architectures, and carries over its resilience to the white-box scenario. Also, state-of-the-art AD models underperform greatly when removing AT and/or moving to gray-box settings, highlighting the lack of robustness from existing approaches to perform in various conditions (aside from white-box settings). All the source code is available at https://github.com/Joana-Cabral/LISArD.
- Abstract(参考訳): 最先端の防御メカニズムは、攻撃者がターゲットネットワークの勾配にアクセスできると仮定するので、現実的ではないホワイトボックス攻撃の文脈で一般的に評価される。
このシナリオを防ぐために、Adversarial Training (AT) と Adversarial Distillation (AD) はトレーニングフェーズの逆例を含み、Adversarial Purification は生成モデルを使用して分類器に与えられたすべての画像を再構成する。
グレーボックス攻撃は、攻撃者がターゲットネットワークのトレーニングに使用するアーキテクチャとデータセットを知っているが、その勾配にはアクセスできないと仮定する。
我々は、モデルがグレーボックス攻撃に弱いという実証的な証拠を提供し、計算コストや時間コストを増大させることなく、ATを含まないグレーボックス攻撃やホワイトボックス攻撃に対して堅牢性を提供する防衛機構であるLISArDを提案する。
本手法は,摂動画像とクリーン画像の埋め込みにより生成した相関行列を対角行列に近似し,同時に分類学習を行う。
その結果、LISArDはグレーボックス攻撃に対して効果的に防御でき、複数のアーキテクチャで使用でき、そのレジリエンスをホワイトボックスのシナリオに委ねることができることがわかった。
また、最先端のADモデルはATを取り除いたり、グレーボックス設定に移行する際には大幅に性能が低下し、様々な状況(ホワイトボックス設定以外)で実行するための既存のアプローチからの堅牢性の欠如が強調された。
すべてのソースコードはhttps://github.com/Joana-Cabral/LISArDで入手できる。
関連論文リスト
- A Review of Adversarial Attacks in Computer Vision [16.619382559756087]
敵対的攻撃は人間の目では見えないが、深層学習の誤分類につながる可能性がある。
敵攻撃は、攻撃者がモデルのパラメータと勾配を知っているホワイトボックス攻撃とブラックボックス攻撃に分けられ、後者は攻撃者がモデルの入力と出力しか取得できない。
論文 参考訳(メタデータ) (2023-08-15T09:43:10Z) - Certifiable Black-Box Attacks with Randomized Adversarial Examples: Breaking Defenses with Provable Confidence [34.35162562625252]
ブラックボックスの敵攻撃は、機械学習モデルを妥協する強力な可能性を示している。
証明可能な保証付きブラックボックス攻撃の新たなパラダイムについて検討する。
この新しいブラックボックス攻撃は、機械学習モデルの重大な脆弱性を露呈する。
論文 参考訳(メタデータ) (2023-04-10T01:12:09Z) - Adversarial Defense via Image Denoising with Chaotic Encryption [65.48888274263756]
攻撃者には秘密鍵以外の全てを利用できると仮定する新しい防御法を提案する。
我々のフレームワークは、離散化ベイカーマップによる暗号化と併用した画像復号化手法を用いている。
論文 参考訳(メタデータ) (2022-03-19T10:25:02Z) - Art-Attack: Black-Box Adversarial Attack via Evolutionary Art [5.760976250387322]
ディープニューラルネットワーク(DNN)は多くのタスクで最先端のパフォーマンスを達成したが、敵の例によって生成された攻撃に対して極端な脆弱性を示している。
本稿では, 進化芸術の概念を用いて, 敵対的事例を生成することによって, 勾配のない攻撃を提案する。
論文 参考訳(メタデータ) (2022-03-07T12:54:09Z) - Similarity-based Gray-box Adversarial Attack Against Deep Face
Recognition [11.397740896235089]
本稿では,新たに開発された目的関数を持つ類似性ベースのグレイボックス対向攻撃(SGADV)手法を提案する。
LFW,CelebA,CelebA-HQの顔データセットをFaceNet,InsightFaceの深層顔認識モデルに対して実験する。
提案手法は,グレーボックス設定において,既存の攻撃手法よりも有意に優れていたことが示唆された。
論文 参考訳(メタデータ) (2022-01-11T15:53:18Z) - Cross-Modal Transferable Adversarial Attacks from Images to Videos [82.0745476838865]
近年の研究では、一方のホワイトボックスモデルで手作りされた敵の例は、他のブラックボックスモデルを攻撃するために使用できることが示されている。
本稿では,イメージ・トゥ・ビデオ(I2V)攻撃と呼ばれる,シンプルだが効果的なクロスモーダル・アタック手法を提案する。
I2Vは、事前訓練された画像モデルの特徴と良質な例とのコサイン類似性を最小化して、対向フレームを生成する。
論文 参考訳(メタデータ) (2021-12-10T08:19:03Z) - Meta Gradient Adversarial Attack [64.5070788261061]
本稿では,MGAA(Metaversa Gradient Adrial Attack)と呼ばれる新しいアーキテクチャを提案する。
具体的には、モデル動物園から複数のモデルをランダムにサンプリングし、異なるタスクを構成するとともに、各タスクにおけるホワイトボックス攻撃とブラックボックス攻撃を反復的にシミュレートする。
ブラックボックス攻撃における勾配方向とブラックボックス攻撃の差を狭めることにより、ブラックボックス設定における逆例の転送性を向上させることができる。
論文 参考訳(メタデータ) (2021-08-09T17:44:19Z) - Improving Query Efficiency of Black-box Adversarial Attack [75.71530208862319]
ニューラルプロセスに基づくブラックボックス対逆攻撃(NP-Attack)を提案する。
NP-Attackはブラックボックス設定でクエリ数を大幅に削減できる。
論文 参考訳(メタデータ) (2020-09-24T06:22:56Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z) - Spanning Attack: Reinforce Black-box Attacks with Unlabeled Data [96.92837098305898]
Black-box攻撃は、機械学習モデルのインプット・アウトプットペアをクエリすることで、敵の摂動を発生させることを目的としている。
ブラックボックス攻撃はしばしば、入力空間の高次元性のためにクエリ非効率性の問題に悩まされる。
本研究では,低次元部分空間における逆摂動を,補助的なラベルのないデータセットに分散させることで抑制するスパンニング攻撃と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2020-05-11T05:57:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。