論文の概要: Adversarial Attack across Datasets
- arxiv url: http://arxiv.org/abs/2110.07718v1
- Date: Wed, 13 Oct 2021 02:07:40 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-18 13:40:00.224673
- Title: Adversarial Attack across Datasets
- Title(参考訳): データセット間の敵対攻撃
- Authors: Yunxiao Qin, Yuanhao Xiong, Jinfeng Yi, Cho-Jui Hsieh
- Abstract要約: Deep Neural Networks(DNN)は、クエリフリーのブラックボックス設定での攻撃の転送に対して脆弱である。
本稿では,任意のデータセットから出現した画像の分類情報を消去する画像分類消去装置(ICE)を提案する。
- 参考スコア(独自算出の注目度): 98.13178217557193
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: It has been observed that Deep Neural Networks (DNNs) are vulnerable to
transfer attacks in the query-free black-box setting. However, all the previous
studies on transfer attack assume that the white-box surrogate models possessed
by the attacker and the black-box victim models are trained on the same
dataset, which means the attacker implicitly knows the label set and the input
size of the victim model. However, this assumption is usually unrealistic as
the attacker may not know the dataset used by the victim model, and further,
the attacker needs to attack any randomly encountered images that may not come
from the same dataset. Therefore, in this paper we define a new Generalized
Transferable Attack (GTA) problem where we assume the attacker has a set of
surrogate models trained on different datasets (with different label sets and
image sizes), and none of them is equal to the dataset used by the victim
model. We then propose a novel method called Image Classification Eraser (ICE)
to erase classification information for any encountered images from arbitrary
dataset. Extensive experiments on Cifar-10, Cifar-100, and TieredImageNet
demonstrate the effectiveness of the proposed ICE on the GTA problem.
Furthermore, we show that existing transfer attack methods can be modified to
tackle the GTA problem, but with significantly worse performance compared with
ICE.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、クエリフリーなブラックボックス設定で攻撃を転送するのに脆弱である。
しかしながら、転送攻撃に関する以前の研究はすべて、攻撃者が所有するホワイトボックスサロゲートモデルとブラックボックスサロゲートモデルが同一データセット上で訓練されていることを前提としており、攻撃者は被害者モデルのラベルセットと入力サイズを暗黙的に知ることになる。
しかし、この仮定は通常非現実的であり、攻撃者は被害者モデルが使用するデータセットを知らないかもしれないし、攻撃者は同じデータセットから発生しない任意のランダムに遭遇した画像を攻撃する必要がある。
そこで,本稿では,攻撃者が異なるデータセット(ラベルセットと画像サイズ)で訓練された一連のサロゲートモデルを持つと仮定し,そのいずれも被害者モデルが使用するデータセットと同等ではないことを仮定した,新たな一般化トランスファブルアタック(gta)問題を定義する。
次に、任意のデータセットから遭遇した画像の分類情報を消去する画像分類消去器(ICE)を提案する。
Cifar-10, Cifar-100, TieredImageNetの大規模実験により, GTA問題に対するICEの有効性が示された。
さらに,既存の転送攻撃手法はGTA問題に対処するために修正可能であるが,ICEと比較して性能は著しく劣っている。
関連論文リスト
- Impart: An Imperceptible and Effective Label-Specific Backdoor Attack [15.859650783567103]
我々は,攻撃者が被害者モデルにアクセスできないシナリオにおいて,Impartという新たな非知覚的なバックドア攻撃フレームワークを提案する。
具体的には、オール・ツー・オール・セッティングの攻撃能力を高めるために、まずラベル固有の攻撃を提案する。
論文 参考訳(メタデータ) (2024-03-18T07:22:56Z) - Your Attack Is Too DUMB: Formalizing Attacker Scenarios for Adversarial
Transferability [17.899587145780817]
侵入攻撃は機械学習モデルに対する脅威であり、敵は悪意のあるサンプルを注入することで分類に影響を与えようとする。
本研究では,サロゲートモデルと被害者モデルの訓練条件が異なる場合の回避攻撃が転送に失敗するかどうかを解析できるDUMB攻撃モデルを提案する。
14件の異なる攻撃に対して13Kの試験を行った結果,サロゲートモデルを用いた移動可能な攻撃範囲の新たな発見が得られた。
論文 参考訳(メタデータ) (2023-06-27T10:21:27Z) - Query Efficient Cross-Dataset Transferable Black-Box Attack on Action
Recognition [99.29804193431823]
ブラックボックスの敵攻撃は、行動認識システムに現実的な脅威をもたらす。
本稿では,摂動を発生させることにより,これらの欠点に対処する新たな行動認識攻撃を提案する。
提案手法は,最先端のクエリベースおよび転送ベース攻撃と比較して,8%,12%の偽装率を達成する。
論文 参考訳(メタデータ) (2022-11-23T17:47:49Z) - Art-Attack: Black-Box Adversarial Attack via Evolutionary Art [5.760976250387322]
ディープニューラルネットワーク(DNN)は多くのタスクで最先端のパフォーマンスを達成したが、敵の例によって生成された攻撃に対して極端な脆弱性を示している。
本稿では, 進化芸術の概念を用いて, 敵対的事例を生成することによって, 勾配のない攻撃を提案する。
論文 参考訳(メタデータ) (2022-03-07T12:54:09Z) - Adversarial Transfer Attacks With Unknown Data and Class Overlap [19.901933940805684]
現在の移動攻撃の研究は、攻撃者にとって非現実的な優位性を持っている。
攻撃者および被害者が不完全な設定で利用可能なデータに着目した敵攻撃の転送に関する最初の研究について述べる。
この脅威モデルは、医学、マルウェアなどの応用に関係している。
論文 参考訳(メタデータ) (2021-09-23T03:41:34Z) - Meta Gradient Adversarial Attack [64.5070788261061]
本稿では,MGAA(Metaversa Gradient Adrial Attack)と呼ばれる新しいアーキテクチャを提案する。
具体的には、モデル動物園から複数のモデルをランダムにサンプリングし、異なるタスクを構成するとともに、各タスクにおけるホワイトボックス攻撃とブラックボックス攻撃を反復的にシミュレートする。
ブラックボックス攻撃における勾配方向とブラックボックス攻撃の差を狭めることにより、ブラックボックス設定における逆例の転送性を向上させることができる。
論文 参考訳(メタデータ) (2021-08-09T17:44:19Z) - Learning to Attack: Towards Textual Adversarial Attacking in Real-world
Situations [81.82518920087175]
敵攻撃は、敵の例でディープニューラルネットワークを騙すことを目的としている。
本稿では、攻撃履歴から学習し、より効率的に攻撃を開始することができる強化学習に基づく攻撃モデルを提案する。
論文 参考訳(メタデータ) (2020-09-19T09:12:24Z) - Adversarial Eigen Attack on Black-Box Models [23.624958605512365]
ブラックボックスの敵攻撃は、AIの安全性を実践するために多くの研究の関心を集めている。
攻撃効率を改善する一般的な方法は、事前訓練された転送可能なホワイトボックスモデルからサポートを引き出すことである。
本稿では,移動可能なブラックボックス攻撃の新たな設定を提案する。攻撃者は,ネットワークパラメータが利用可能な事前学習モデルから外部情報を利用することができる。
論文 参考訳(メタデータ) (2020-08-27T07:37:43Z) - Spanning Attack: Reinforce Black-box Attacks with Unlabeled Data [96.92837098305898]
Black-box攻撃は、機械学習モデルのインプット・アウトプットペアをクエリすることで、敵の摂動を発生させることを目的としている。
ブラックボックス攻撃はしばしば、入力空間の高次元性のためにクエリ非効率性の問題に悩まされる。
本研究では,低次元部分空間における逆摂動を,補助的なラベルのないデータセットに分散させることで抑制するスパンニング攻撃と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2020-05-11T05:57:15Z) - Adversarial Imitation Attack [63.76805962712481]
現実的な敵攻撃は、攻撃されたモデルの知識をできるだけ少なくする必要がある。
現在の代替攻撃では、敵の例を生成するために事前訓練されたモデルが必要である。
本研究では,新たな敵模倣攻撃を提案する。
論文 参考訳(メタデータ) (2020-03-28T10:02:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。