論文の概要: Universal Adversarial Perturbations and Image Spam Classifiers
- arxiv url: http://arxiv.org/abs/2103.05469v1
- Date: Sun, 7 Mar 2021 14:36:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-11 18:22:51.590915
- Title: Universal Adversarial Perturbations and Image Spam Classifiers
- Title(参考訳): universal adversarial perturbation とイメージスパム分類器
- Authors: Andy Phung and Mark Stamp
- Abstract要約: 画像スパムとは、画像に埋め込まれた電子メールである。
現代のディープラーニングベースの分類器は、典型的な画像スパムを検出するのにうまく機能する。
我々は,画像スパムに適応した「自然な摂動」を生成できる新しいトランスフォーメーションベースの敵攻撃を提案し,解析する。
- 参考スコア(独自算出の注目度): 4.111899441919165
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As the name suggests, image spam is spam email that has been embedded in an
image. Image spam was developed in an effort to evade text-based filters.
Modern deep learning-based classifiers perform well in detecting typical image
spam that is seen in the wild. In this chapter, we evaluate numerous
adversarial techniques for the purpose of attacking deep learning-based image
spam classifiers. Of the techniques tested, we find that universal perturbation
performs best. Using universal adversarial perturbations, we propose and
analyze a new transformation-based adversarial attack that enables us to create
tailored "natural perturbations" in image spam. The resulting spam images
benefit from both the presence of concentrated natural features and a universal
adversarial perturbation. We show that the proposed technique outperforms
existing adversarial attacks in terms of accuracy reduction, computation time
per example, and perturbation distance. We apply our technique to create a
dataset of adversarial spam images, which can serve as a challenge dataset for
future research in image spam detection.
- Abstract(参考訳): 名前が示すように、画像スパムは画像に埋め込まれたスパムメールだ。
画像スパムはテキストベースのフィルターを避けるために開発された。
現代のディープラーニングに基づく分類器は、野生で見られる典型的な画像スパムを検出するのによく機能する。
本章では,ディープラーニングに基づく画像スパム分類器を攻撃するために,多くの敵手法を評価する。
テストした手法のうち、普遍摂動が最善であることがわかった。
そこで本稿では, 画像スパムに適応した「自然な摂動」を生成可能な, 変換に基づく新たな対向攻撃を提案し, 解析する。
結果として得られるスパム画像は、集中した自然特徴の存在と普遍的な敵の摂動の両方から恩恵を受ける。
提案手法は, 精度の低下, 例ごとの計算時間, 摂動距離において, 既存の敵攻撃よりも優れていることを示す。
本手法は,画像スパム検出における今後の研究の課題データセットとして使用できる,敵対的スパム画像のデータセットの作成に応用する。
関連論文リスト
- Adversarial Purification of Information Masking [8.253834429336656]
アドリアックは、ニューラルネットワークを騙すイメージに対して、極小で知覚不能な摂動を発生させる。
これらに対抗して、敵の入力サンプルをクリーンな出力画像に変換し、敵の攻撃を防ごうとする。
本稿では,情報マスク浄化 (IMPure) と呼ばれる新しい対向的浄化手法を提案し,対向的摂動を広範囲に排除する。
論文 参考訳(メタデータ) (2023-11-26T15:50:19Z) - IRAD: Implicit Representation-driven Image Resampling against Adversarial Attacks [16.577595936609665]
本稿では,画像再サンプリングという,敵対的攻撃に対する新たなアプローチを提案する。
画像再サンプリングは、幾何学的変換によって指定されたシーンの再調整や再レンダリングの過程をシミュレートして、離散画像を新しい画像に変換する。
本手法は,クリーンな画像の精度を維持しつつ,多様な深層モデルの様々な攻撃に対する対角的堅牢性を著しく向上することを示す。
論文 参考訳(メタデータ) (2023-10-18T11:19:32Z) - Dual Adversarial Resilience for Collaborating Robust Underwater Image
Enhancement and Perception [54.672052775549]
本研究では,水中画像の強調と検出を行うために,CARNetと呼ばれる協調的対向レジリエンスネットワークを導入する。
本稿では,ネットワークが様々な種類の攻撃を識別・除去できるように,視覚駆動型と知覚駆動型の両方による同時攻撃訓練戦略を提案する。
実験により,提案手法は画像の高画質化を図り,最先端の手法よりも平均6.71%高い検出精度が得られた。
論文 参考訳(メタデータ) (2023-09-03T06:52:05Z) - Enhancing the Self-Universality for Transferable Targeted Attacks [88.6081640779354]
本手法は,高次対角的摂動が標的攻撃に対してより伝達しやすい傾向にあることを示す。
異なる画像上の摂動を最適化する代わりに、異なる領域を最適化して自己ユニバーシティを実現することで、余分なデータを排除することができる。
特徴的類似性欠如により,本手法は,良性画像よりも対向性摂動の特徴が支配的となる。
論文 参考訳(メタデータ) (2022-09-08T11:21:26Z) - Restricted Black-box Adversarial Attack Against DeepFake Face Swapping [70.82017781235535]
本稿では,顔画像偽造モデルに対する問い合わせを一切必要としない現実的な敵攻撃を提案する。
本手法は,顔の再構成を行う代用モデルに基づいて構築され,置換モデルから非アクセス可能なブラックボックスDeepFakeモデルへの逆例を直接転送する。
論文 参考訳(メタデータ) (2022-04-26T14:36:06Z) - Convolutional Neural Networks for Image Spam Detection [4.817429789586127]
スパムは、孤立しないバルクメールと定義できる。
テキストベースのフィルタを避けるために、スパマーは画像にスパムテキストを埋め込むことがある。
我々は、この問題に対して畳み込みニューラルネットワーク(CNN)を適用し、CNNを用いて得られた結果と他の機械学習技術との比較を行い、その結果を過去の関連する研究と比較する。
論文 参考訳(メタデータ) (2022-04-02T15:10:44Z) - Exploring Frequency Adversarial Attacks for Face Forgery Detection [59.10415109589605]
フェースフォージェリ検出器に対する周波数対向攻撃法を提案する。
また,メタラーニングの概念に触発されて,空間領域と周波数領域の両方で攻撃を行うハイブリッド逆攻撃を提案する。
論文 参考訳(メタデータ) (2022-03-29T15:34:13Z) - Error Diffusion Halftoning Against Adversarial Examples [85.11649974840758]
敵対的な例には、深いニューラルネットワークを誤った予測にだますことができる慎重に作られた摂動が含まれます。
誤り拡散のハーフトン化に基づく新しい画像変換防御を提案し、逆転の例に対して防御するための逆転訓練と組み合わせます。
論文 参考訳(メタデータ) (2021-01-23T07:55:02Z) - DeepCapture: Image Spam Detection Using Deep Learning and Data
Augmentation [16.488574089293326]
本稿では、畳み込みニューラルネットワーク(CNN)モデルを用いて、DeepCaptureと呼ばれる新しい画像スパムメール検出ツールを提案する。
DeepCaptureは88%のF1スコアを達成でき、既存のスパム検出モデルであるCNN-SVMよりも6%改善されている。
論文 参考訳(メタデータ) (2020-06-16T02:50:04Z) - A Black-box Adversarial Attack Strategy with Adjustable Sparsity and
Generalizability for Deep Image Classifiers [16.951363298896638]
ブラックボックスの逆転摂動は現実世界のアプリケーションにとってより実用的である。
本稿では,有効普遍画素制限摂動を構成するためのDceitアルゴリズムを提案する。
Deceitを用いた画像の摂動は,約10%の画素しか持たないことが判明した。
論文 参考訳(メタデータ) (2020-04-24T19:42:00Z) - Towards Achieving Adversarial Robustness by Enforcing Feature
Consistency Across Bit Planes [51.31334977346847]
我々は、高ビット平面の情報に基づいて粗い印象を形成するためにネットワークを訓練し、低ビット平面を用いて予測を洗練させる。
異なる量子化画像間で学習した表現に一貫性を付与することにより、ネットワークの対角的ロバスト性が大幅に向上することを示した。
論文 参考訳(メタデータ) (2020-04-01T09:31:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。