論文の概要: A Study for Universal Adversarial Attacks on Texture Recognition
- arxiv url: http://arxiv.org/abs/2010.01506v1
- Date: Sun, 4 Oct 2020 08:11:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-11 03:59:40.347196
- Title: A Study for Universal Adversarial Attacks on Texture Recognition
- Title(参考訳): テクスチャ認識における普遍的敵意攻撃に関する研究
- Authors: Yingpeng Deng and Lina J. Karam
- Abstract要約: テストされたテクスチャデータセットの80%以上で、ディープラーニングモデルを騙すことができる画像非依存/普遍的摂動が存在することを示す。
テストデータセット上の様々な攻撃手法を用いた計算摂動は、概して準知覚可能であり、低、中、高周波数成分の構造化パターンを含む。
- 参考スコア(独自算出の注目度): 19.79803434998116
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Given the outstanding progress that convolutional neural networks (CNNs) have
made on natural image classification and object recognition problems, it is
shown that deep learning methods can achieve very good recognition performance
on many texture datasets. However, while CNNs for natural image
classification/object recognition tasks have been revealed to be highly
vulnerable to various types of adversarial attack methods, the robustness of
deep learning methods for texture recognition is yet to be examined. In our
paper, we show that there exist small image-agnostic/univesal perturbations
that can fool the deep learning models with more than 80\% of testing fooling
rates on all tested texture datasets. The computed perturbations using various
attack methods on the tested datasets are generally quasi-imperceptible,
containing structured patterns with low, middle and high frequency components.
- Abstract(参考訳): 畳み込みニューラルネットワーク(CNN)が自然画像分類や物体認識問題に多大な進歩をもたらしたことを踏まえ、深層学習法は多くのテクスチャデータセット上で非常に優れた認識性能を達成できることが示されている。
しかし, 自然画像分類・物体認識タスクのCNNは, 様々な種類の敵攻撃手法に非常に脆弱であることが判明しているが, テクスチャ認識のためのディープラーニング手法の堅牢性はまだ検討されていない。
本稿では,全てのテクスチャデータセットに対して,80%以上の検査率でディープラーニングモデルを騙すことのできる,画像に依存しない対一の摂動が存在することを示す。
テストデータセット上の様々な攻撃手法を用いた計算摂動は、概して準知覚可能であり、低、中、高周波数成分の構造化パターンを含む。
関連論文リスト
- Are Deep Learning Models Robust to Partial Object Occlusion in Visual Recognition Tasks? [4.9260675787714]
畳み込みニューラルネットワーク(CNN)を含む画像分類モデルは、様々な分類タスクでうまく機能するが、部分閉塞下では困難である。
我々は最近開発されたOccluded Video Instance(IRUO)データセット(arXiv:2102.01558)を基にした画像認識(IRUO)データセットをコントリビュートする。
現代のCNNベースモデルでは、従来のCNNベースモデルと比較して、隠蔽画像の認識精度が向上しており、ViTベースモデルは隠蔽画像のCNNベースモデルよりも精度が高いことが判明した。
論文 参考訳(メタデータ) (2024-09-16T23:21:22Z) - UniForensics: Face Forgery Detection via General Facial Representation [60.5421627990707]
高レベルの意味的特徴は摂動の影響を受けにくく、フォージェリー固有の人工物に限らないため、より強い一般化がある。
我々は、トランスフォーマーベースのビデオネットワークを活用する新しいディープフェイク検出フレームワークUniForensicsを導入し、顔の豊かな表現のためのメタファンクショナルな顔分類を行う。
論文 参考訳(メタデータ) (2024-07-26T20:51:54Z) - CLIPC8: Face liveness detection algorithm based on image-text pairs and
contrastive learning [3.90443799528247]
画像テキストペアとコントラスト学習に基づく顔の生存度検出手法を提案する。
提案手法は,特定のシナリオにおいて,特定の生きた攻撃行動を効果的に検出することができる。
また、印刷写真攻撃やスクリーンリメイク攻撃などの従来の生きた攻撃方法の検出にも有効である。
論文 参考訳(メタデータ) (2023-11-29T12:21:42Z) - Detecting Generated Images by Real Images Only [64.12501227493765]
既存の画像検出手法は、生成画像中の視覚的アーティファクトを検出したり、大規模なトレーニングによって、実画像と生成画像の両方から識別的特徴を学習する。
本稿では,新たな視点から生成した画像検出問題にアプローチする。
実画像の共通性を見つけ、特徴空間内の密接な部分空間にマッピングすることで、生成した画像は生成モデルに関係なくサブ空間の外側に投影される。
論文 参考訳(メタデータ) (2023-11-02T03:09:37Z) - CrossDF: Improving Cross-Domain Deepfake Detection with Deep Information Decomposition [53.860796916196634]
クロスデータセットディープフェイク検出(CrossDF)の性能を高めるためのディープ情報分解(DID)フレームワークを提案する。
既存のディープフェイク検出方法とは異なり、我々のフレームワークは特定の視覚的アーティファクトよりも高いレベルのセマンティック特徴を優先する。
顔の特徴をディープフェイク関連情報と無関係情報に適応的に分解し、本質的なディープフェイク関連情報のみを用いてリアルタイム・フェイク識別を行う。
論文 参考訳(メタデータ) (2023-09-30T12:30:25Z) - Parents and Children: Distinguishing Multimodal DeepFakes from Natural Images [60.34381768479834]
近年の拡散モデルの発展により、自然言語のテキストプロンプトから現実的なディープフェイクの生成が可能になった。
我々は、最先端拡散モデルにより生成されたディープフェイク検出に関する体系的研究を開拓した。
論文 参考訳(メタデータ) (2023-04-02T10:25:09Z) - Detecting Adversaries, yet Faltering to Noise? Leveraging Conditional
Variational AutoEncoders for Adversary Detection in the Presence of Noisy
Images [0.7734726150561086]
条件変分オートエンコーダ(CVAE)は、知覚不能な画像摂動を検出するのに驚くほど優れている。
画像分類ネットワーク上での敵攻撃を検出するために,CVAEを効果的に利用する方法を示す。
論文 参考訳(メタデータ) (2021-11-28T20:36:27Z) - SCARF: Self-Supervised Contrastive Learning using Random Feature
Corruption [72.35532598131176]
本稿では,特徴のランダムなサブセットを乱してビューを形成するコントラスト学習手法であるSCARFを提案する。
SCARFは既存の戦略を補完し、オートエンコーダのような代替手段より優れていることを示す。
論文 参考訳(メタデータ) (2021-06-29T08:08:33Z) - Anomaly Detection on Attributed Networks via Contrastive Self-Supervised
Learning [50.24174211654775]
本論文では,アトリビュートネットワーク上の異常検出のためのコントラスト型自己監視学習フレームワークを提案する。
このフレームワークは、新しいタイプのコントラストインスタンスペアをサンプリングすることで、ネットワークデータからのローカル情報を完全に活用します。
高次元特性と局所構造から情報埋め込みを学習するグラフニューラルネットワークに基づくコントラスト学習モデルを提案する。
論文 参考訳(メタデータ) (2021-02-27T03:17:20Z) - Fighting deepfakes by detecting GAN DCT anomalies [0.0]
最先端アルゴリズムはディープニューラルネットワークを使って偽のコンテンツを検出する。
ディープフェイク画像の高精度判別が可能な新しい高速検出法を提案する。
この手法は革新的であり、最先端技術を超え、説明可能性の観点から多くの洞察を与えている。
論文 参考訳(メタデータ) (2021-01-24T19:45:11Z) - Towards Imperceptible Universal Attacks on Texture Recognition [19.79803434998116]
空間領域における摂動の$l_p$ノルムの制限は,テクスチャ画像に対する普遍的対向摂動の知覚性を制限するには適さないと考えられる。
周波数領域における普遍摂動を計算するために,周波数調整型ユニバーサルアタック手法を提案する。
論文 参考訳(メタデータ) (2020-11-24T08:33:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。