論文の概要: Improving the JPEG-resistance of Adversarial Attacks on Face Recognition
by Interpolation Smoothing
- arxiv url: http://arxiv.org/abs/2402.16586v1
- Date: Mon, 26 Feb 2024 14:09:50 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-28 20:40:56.831051
- Title: Improving the JPEG-resistance of Adversarial Attacks on Face Recognition
by Interpolation Smoothing
- Title(参考訳): 補間平滑化による顔認識における逆攻撃のjpeg耐性向上
- Authors: Kefu Guo, Fengfan Zhou, Hefei Ling, Ping Li and Hui Liu
- Abstract要約: 本稿では,JPEG圧縮に対する対立例の抵抗性を改善することを目的とした,顔認識に対する新たな敵攻撃を提案する。
提案手法の有効性を実験的に検証し, 逆顔例のJPEG抵抗性向上に有効であることを示した。
- 参考スコア(独自算出の注目度): 19.78886439509634
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: JPEG compression can significantly impair the performance of adversarial face
examples, which previous adversarial attacks on face recognition (FR) have not
adequately addressed. Considering this challenge, we propose a novel
adversarial attack on FR that aims to improve the resistance of adversarial
examples against JPEG compression. Specifically, during the iterative process
of generating adversarial face examples, we interpolate the adversarial face
examples into a smaller size. Then we utilize these interpolated adversarial
face examples to create the adversarial examples in the next iteration.
Subsequently, we restore the adversarial face examples to their original size
by interpolating. Throughout the entire process, our proposed method can smooth
the adversarial perturbations, effectively mitigating the presence of
high-frequency signals in the crafted adversarial face examples that are
typically eliminated by JPEG compression. Our experimental results demonstrate
the effectiveness of our proposed method in improving the JPEG-resistance of
adversarial face examples.
- Abstract(参考訳): JPEG圧縮は、従来の顔認識(FR)に対する敵攻撃が適切に対処されていない対向顔例の性能を著しく損なう可能性がある。
この課題を考慮し、JPEG圧縮に対する敵例の抵抗を改善することを目的としたFRに対する新たな敵攻撃を提案する。
具体的には, 対向顔例を生成する反復過程において, 対向顔例を小さいサイズに補間する。
次に、これらの補間された対向顔例を用いて、次のイテレーションで対向顔例を作成する。
その後、補間により対向顔の例を元の大きさに復元する。
提案手法は, jpeg圧縮により通常排除される敵顔例における高周波信号の存在を効果的に軽減し, 逆摂動を円滑に行うことができる。
提案手法の有効性を実験的に検証し, 逆顔例のJPEG抵抗性向上に有効であることを示した。
関連論文リスト
- Imperceptible Face Forgery Attack via Adversarial Semantic Mask [59.23247545399068]
本稿では, 対向性, 可視性に優れた対向性例を生成できるASMA(Adversarial Semantic Mask Attack framework)を提案する。
具体的には, 局所的なセマンティック領域の摂動を抑制し, 良好なステルス性を実現する, 対向型セマンティックマスク生成モデルを提案する。
論文 参考訳(メタデータ) (2024-06-16T10:38:11Z) - Rethinking Impersonation and Dodging Attacks on Face Recognition Systems [38.37530847215405]
顔認識(FR)システムは、知覚不能な摂動を通じて良質な顔画像を操作する敵の例によって容易に認識できる。
従来の方法では、FRに対する偽装攻撃を成功させることが多いが、ブラックボックス設定でFRに対するドッジ攻撃を成功させるとは限らない。
そこで本稿では, 対人的能力を維持しつつ, 対人的能力を高めるために, 既存の対人的能力を微調整する, 対人的プルーニング(Adv-Pruning, Adv-Pruning)と呼ばれる新たな攻撃手法を提案する。
論文 参考訳(メタデータ) (2024-01-17T01:10:17Z) - TranSegPGD: Improving Transferability of Adversarial Examples on
Semantic Segmentation [62.954089681629206]
そこで本研究では, セグメンテーションにおける2段階の対角攻撃戦略を提案し, セグメンテーションにおける対角攻撃の伝達性を向上させる。
提案手法は,最先端の性能を達成できる。
論文 参考訳(メタデータ) (2023-12-03T00:48:33Z) - LFAA: Crafting Transferable Targeted Adversarial Examples with
Low-Frequency Perturbations [25.929492841042666]
本稿では,トランスファー可能な対象対向例を生成するための新しい手法を提案する。
画像の高周波成分の摂動にディープニューラルネットワークの脆弱性を利用する。
提案手法は最先端手法よりも優れている。
論文 参考訳(メタデータ) (2023-10-31T04:54:55Z) - IRAD: Implicit Representation-driven Image Resampling against Adversarial Attacks [16.577595936609665]
本稿では,画像再サンプリングという,敵対的攻撃に対する新たなアプローチを提案する。
画像再サンプリングは、幾何学的変換によって指定されたシーンの再調整や再レンダリングの過程をシミュレートして、離散画像を新しい画像に変換する。
本手法は,クリーンな画像の精度を維持しつつ,多様な深層モデルの様々な攻撃に対する対角的堅牢性を著しく向上することを示す。
論文 参考訳(メタデータ) (2023-10-18T11:19:32Z) - Improving the Transferability of Adversarial Attacks on Face Recognition
with Beneficial Perturbation Feature Augmentation [26.032639566914114]
顔認識(FR)モデルは、良質な顔画像に知覚不能な摂動を加えることで、敵対的な例によって容易に騙される。
本稿では,既存のFRモデルの盲点を明らかにするために,対向顔例の移動性を改善する。
BPFA(Besticial Perturbation Feature Augmentation Attack)と呼ばれる新しい攻撃法を提案する。
論文 参考訳(メタデータ) (2022-10-28T13:25:59Z) - Restricted Black-box Adversarial Attack Against DeepFake Face Swapping [70.82017781235535]
本稿では,顔画像偽造モデルに対する問い合わせを一切必要としない現実的な敵攻撃を提案する。
本手法は,顔の再構成を行う代用モデルに基づいて構築され,置換モデルから非アクセス可能なブラックボックスDeepFakeモデルへの逆例を直接転送する。
論文 参考訳(メタデータ) (2022-04-26T14:36:06Z) - Improving White-box Robustness of Pre-processing Defenses via Joint Adversarial Training [106.34722726264522]
対向騒音の干渉を軽減するため,様々な対向防御技術が提案されている。
プレプロセス法は、ロバストネス劣化効果に悩まされることがある。
この負の効果の潜在的な原因は、敵の訓練例が静的であり、前処理モデルとは独立していることである。
本稿では,JATP(Joint Adversarial Training Based Pre-processing)防衛法を提案する。
論文 参考訳(メタデータ) (2021-06-10T01:45:32Z) - Adversarial Examples Detection beyond Image Space [88.7651422751216]
摂動と予測信頼の間にはコンプライアンスが存在することが分かり、予測信頼の面から少数の摂動攻撃を検出するための指針となる。
本研究では,画像ストリームが画素アーティファクトに注目し,勾配ストリームが信頼度アーティファクトに対応する2ストリームアーキテクチャによる画像空間を超えた手法を提案する。
論文 参考訳(メタデータ) (2021-02-23T09:55:03Z) - Error Diffusion Halftoning Against Adversarial Examples [85.11649974840758]
敵対的な例には、深いニューラルネットワークを誤った予測にだますことができる慎重に作られた摂動が含まれます。
誤り拡散のハーフトン化に基づく新しい画像変換防御を提案し、逆転の例に対して防御するための逆転訓練と組み合わせます。
論文 参考訳(メタデータ) (2021-01-23T07:55:02Z) - AdvJND: Generating Adversarial Examples with Just Noticeable Difference [3.638233924421642]
例に小さな摂動を加えると、優れたパフォーマンスモデルが工芸品の例を誤って分類する。
我々のAdvJNDアルゴリズムが生成した逆例は、元の入力に類似した分布を生成する。
論文 参考訳(メタデータ) (2020-02-01T09:55:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。