論文の概要: Two Souls in an Adversarial Image: Towards Universal Adversarial Example
Detection using Multi-view Inconsistency
- arxiv url: http://arxiv.org/abs/2109.12459v1
- Date: Sat, 25 Sep 2021 23:47:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-28 15:29:22.384243
- Title: Two Souls in an Adversarial Image: Towards Universal Adversarial Example
Detection using Multi-view Inconsistency
- Title(参考訳): 逆画像における2つの魂:多視点不整合を用いた普遍的逆例検出に向けて
- Authors: Sohaib Kiani, Sana Awan, Chao Lan, Fengjun Li, Bo Luo
- Abstract要約: ディープニューラルネットワーク(DNN)に対する回避攻撃では、攻撃者は、良性サンプルと視覚的に区別できない敵のインスタンスを生成する。
本稿では,新しい観測結果に基づいて,新しい多視点逆画像検出器Argosを提案する。
アルゴスは、検出精度とロバスト性の両方において、2つの代表的な対向検出器を著しく上回っている。
- 参考スコア(独自算出の注目度): 10.08837640910022
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the evasion attacks against deep neural networks (DNN), the attacker
generates adversarial instances that are visually indistinguishable from benign
samples and sends them to the target DNN to trigger misclassifications. In this
paper, we propose a novel multi-view adversarial image detector, namely Argos,
based on a novel observation. That is, there exist two "souls" in an
adversarial instance, i.e., the visually unchanged content, which corresponds
to the true label, and the added invisible perturbation, which corresponds to
the misclassified label. Such inconsistencies could be further amplified
through an autoregressive generative approach that generates images with seed
pixels selected from the original image, a selected label, and pixel
distributions learned from the training data. The generated images (i.e., the
"views") will deviate significantly from the original one if the label is
adversarial, demonstrating inconsistencies that Argos expects to detect. To
this end, Argos first amplifies the discrepancies between the visual content of
an image and its misclassified label induced by the attack using a set of
regeneration mechanisms and then identifies an image as adversarial if the
reproduced views deviate to a preset degree. Our experimental results show that
Argos significantly outperforms two representative adversarial detectors in
both detection accuracy and robustness against six well-known adversarial
attacks. Code is available at:
https://github.com/sohaib730/Argos-Adversarial_Detection
- Abstract(参考訳): ディープニューラルネットワーク(DNN)に対する回避攻撃では、攻撃者は良性サンプルと視覚的に区別できない敵インスタンスを生成し、ターゲットのDNNに送信して誤分類を引き起こす。
本稿では,新しい観測結果に基づいて,新しい多視点逆画像検出器Argosを提案する。
すなわち、敵の例には、真のラベルに対応する視覚的に変化しない内容と、誤分類されたラベルに対応する目に見えない摂動という2つの「スーール」が存在する。
このような矛盾は、トレーニングデータから得られた原画像、選択されたラベル、および画素分布から選択されたシードピクセルの画像を生成する自己回帰生成アプローチによってさらに増幅することができる。
生成された画像(すなわち「ビュー」)は、ラベルが敵対的であれば元の画像と大きく異なるため、argosが検出することを期待する不一致を示す。
この目的のために、Argosは、まず、一連の再生機構を用いて、攻撃によって誘導される画像の視覚内容とその誤分類されたラベルとの相違を増幅し、再生されたビューが予め設定された度合いにずれた場合に、画像を逆境として識別する。
実験の結果,Argosは6つのよく知られた対向攻撃に対して,検出精度と堅牢性の両方で2つの代表的な対向検出器よりも優れていた。
https://github.com/sohaib730/Argos-Adversarial_Detection
関連論文リスト
- AdvQDet: Detecting Query-Based Adversarial Attacks with Adversarial Contrastive Prompt Tuning [93.77763753231338]
CLIP画像エンコーダを微調整し、2つの中間対向クエリに対して同様の埋め込みを抽出するために、ACPT(Adversarial Contrastive Prompt Tuning)を提案する。
我々は,ACPTが7つの最先端クエリベースの攻撃を検出できることを示す。
また,ACPTは3種類のアダプティブアタックに対して堅牢であることを示す。
論文 参考訳(メタデータ) (2024-08-04T09:53:50Z) - Vulnerabilities in AI-generated Image Detection: The Challenge of Adversarial Attacks [17.87119255294563]
ホワイトボックスおよびブラックボックス設定下での敵攻撃に対する最先端AIGI検出器の脆弱性について検討する。
まず、実画像と周波数領域の偽画像との明らかな違いに着想を得て、周波数領域の下に摂動を加え、元の周波数分布からイメージを遠ざける。
FPBAは、モデル、ジェネレータ、防御方法、さらにはクロスジェネレータ検出を回避して、ブラックボックス攻撃を成功させることができるからです。
論文 参考訳(メタデータ) (2024-07-30T14:07:17Z) - Transparency Attacks: How Imperceptible Image Layers Can Fool AI
Perception [0.0]
本稿では,認識不能な画像層が視覚モデルを任意のラベル代入とキャプションに結合する場合のアルゴリズム的脆弱性について検討する。
我々は、人間の目が知覚するものをAIが誤解釈するきっかけとなる、ステルス透明性を導入するための画像前処理手法について検討する。
ステルス透明性は、顔認識と監視の回避、デジタル透かし、コンテンツフィルタリング、データセットのキュレーション、自動車とドローンの自律性、法医学的証拠の改ざん、小売商品の誤分類など、視覚システムを確立した。
論文 参考訳(メタデータ) (2024-01-29T00:52:01Z) - I See Dead People: Gray-Box Adversarial Attack on Image-To-Text Models [0.0]
我々は、画像からテキストへのグレーボックスの逆攻撃を、未ターゲティングとターゲットの両方に提示する。
攻撃はグレーボックス方式で実行され、デコーダモジュールに関する知識は不要です。
また、私たちの攻撃は人気のあるオープンソースプラットフォームHugging Faceを騙していることも示しています。
論文 参考訳(メタデータ) (2023-06-13T07:35:28Z) - Human-imperceptible, Machine-recognizable Images [76.01951148048603]
より良い開発AIシステムと、センシティブなトレーニングデータから距離を置くことの間の、ソフトウェアエンジニアに関する大きな対立が露呈している。
画像が暗号化され、人間に認識され、機械に認識される」という、効率的なプライバシー保護学習パラダイムを提案する。
提案手法は,機械が認識可能な情報を保存しながら,暗号化された画像が人間に認識されなくなることを保証できることを示す。
論文 参考訳(メタデータ) (2023-06-06T13:41:37Z) - Black-Box Attack against GAN-Generated Image Detector with Contrastive
Perturbation [0.4297070083645049]
GAN生成画像検出器に対する新しいブラックボックス攻撃法を提案する。
エンコーダ・デコーダネットワークに基づく反法学モデルのトレーニングには,新たなコントラスト学習戦略が採用されている。
提案した攻撃は、6つの一般的なGAN上での3つの最先端検出器の精度を効果的に低減する。
論文 参考訳(メタデータ) (2022-11-07T12:56:14Z) - Context-Aware Transfer Attacks for Object Detection [51.65308857232767]
本稿では,オブジェクト検出のためのコンテキスト認識攻撃を新たに生成する手法を提案する。
オブジェクトとその相対的な位置と大きさの共起をコンテキスト情報として利用することにより、ターゲットの誤分類攻撃をうまく生成できることを示す。
論文 参考訳(メタデータ) (2021-12-06T18:26:39Z) - Discriminator-Free Generative Adversarial Attack [87.71852388383242]
生成的ベースの敵攻撃は、この制限を取り除くことができる。
ASymmetric Saliency-based Auto-Encoder (SSAE) は摂動を生成する。
SSAEが生成した敵の例は、広く使われているモデルを崩壊させるだけでなく、優れた視覚的品質を実現する。
論文 参考訳(メタデータ) (2021-07-20T01:55:21Z) - Detecting Adversarial Examples by Input Transformations, Defense
Perturbations, and Voting [71.57324258813674]
畳み込みニューラルネットワーク(CNN)は、視覚認識タスクにおいて超人的性能に達することが証明されている。
CNNは敵の例、すなわち不正な出力をネットワークに強制する悪意のある画像によって簡単に騙される。
本稿では,画像変換による敵例の検出を幅広く検討し,新しい手法を提案する。
論文 参考訳(メタデータ) (2021-01-27T14:50:41Z) - Breaking certified defenses: Semantic adversarial examples with spoofed
robustness certificates [57.52763961195292]
本稿では,分類器のラベル付け機能だけでなく,証明書生成機能を利用した新たな攻撃を提案する。
提案手法は, 画像がクラス境界から遠ざかる大きな摂動を, 対向例の不受容性を保ちながら適用する。
論文 参考訳(メタデータ) (2020-03-19T17:59:44Z) - Generating Semantic Adversarial Examples via Feature Manipulation [23.48763375455514]
本稿では,意味的意味を持つ構造的摂動を設計することで,より現実的な敵攻撃を提案する。
提案手法は,非絡み付きラテント符号を用いて画像の意味的属性を演算する。
我々は、普遍的で画像に依存しないセマンティック・逆境の例の存在を実証する。
論文 参考訳(メタデータ) (2020-01-06T06:28:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。