論文の概要: Robust Unpaired Single Image Super-Resolution of Faces
- arxiv url: http://arxiv.org/abs/2201.09109v1
- Date: Sat, 22 Jan 2022 18:17:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-28 05:26:23.691127
- Title: Robust Unpaired Single Image Super-Resolution of Faces
- Title(参考訳): ロバストな単一画像による顔の超解像
- Authors: Saurabh Goswami, Rajagopalan A. N
- Abstract要約: 本稿では,クラス固有のSingle Image Super-Resolution(SISR)手法に対する逆攻撃を提案する。
実験の結果,提案手法は,最先端の敵攻撃よりも高速かつ効率の良いトレードオフを実現することができることがわかった。
- 参考スコア(独自算出の注目度): 2.0305676256390934
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose an adversarial attack for facial class-specific Single Image
Super-Resolution (SISR) methods. Existing attacks, such as the Fast Gradient
Sign Method (FGSM) or the Projected Gradient Descent (PGD) method, are either
fast but ineffective, or effective but prohibitively slow on these networks. By
closely inspecting the surface that the MSE loss, used to train such networks,
traces under varying degradations, we were able to identify its parameterizable
property. We leverage this property to propose an adverasrial attack that is
able to locate the optimum degradation (effective) without needing multiple
gradient-ascent steps (fast). Our experiments show that the proposed method is
able to achieve a better speed vs effectiveness trade-off than the
state-of-theart adversarial attacks, such as FGSM and PGD, for the task of
unpaired facial as well as class-specific SISR.
- Abstract(参考訳): 本稿では,顔のクラス固有のSingle Image Super-Resolution(SISR)手法に対する逆攻撃を提案する。
高速勾配符号法 (fgsm) や投影勾配降下法 (pgd) のような既存の攻撃は、高速でも効果的でも効果的でもないが、これらのネットワークでは制限的に遅い。
このようなネットワークのトレーニングに使用されるMSE損失の表面を精査することにより,そのパラメータ化可能な特性を同定することができた。
この特性を利用して,複数の勾配上昇ステップ(高速)を必要とせずに,最適な劣化(効果的)を探索できる平均攻撃を提案する。
提案手法は,FGSM や PGD のような最先端の対人攻撃よりも,未対面顔のタスクやクラス固有のSISR に対して,より高速かつ効果的なトレードオフを実現することができることを示す。
関連論文リスト
- Guidance Through Surrogate: Towards a Generic Diagnostic Attack [101.36906370355435]
我々は、攻撃最適化中に局所最小限を避けるための誘導機構を開発し、G-PGAと呼ばれる新たな攻撃に繋がる。
修正された攻撃では、ランダムに再起動したり、多数の攻撃を繰り返したり、最適なステップサイズを検索したりする必要がありません。
効果的な攻撃以上に、G-PGAは敵防御における勾配マスキングによる解離性堅牢性を明らかにするための診断ツールとして用いられる。
論文 参考訳(メタデータ) (2022-12-30T18:45:23Z) - Versatile Weight Attack via Flipping Limited Bits [68.45224286690932]
本研究では,展開段階におけるモデルパラメータを変更する新たな攻撃パラダイムについて検討する。
有効性とステルスネスの目標を考慮し、ビットフリップに基づく重み攻撃を行うための一般的な定式化を提供する。
SSA(Single sample attack)とTSA(Singr sample attack)の2例を報告した。
論文 参考訳(メタデータ) (2022-07-25T03:24:58Z) - Fast Adversarial Training with Adaptive Step Size [62.37203478589929]
トレーニングインスタンスの観点から,この現象を考察する。
適応ステップサイズ(ATAS)を用いた逆学習法を提案する。
ATASは、その勾配ノルムに逆比例するインスタンス順応的なステップサイズを学習する。
論文 参考訳(メタデータ) (2022-06-06T08:20:07Z) - Adaptive Perturbation for Adversarial Attack [50.77612889697216]
そこで本研究では,新たな逆例に対する勾配に基づく攻撃手法を提案する。
逆方向の摂動を発生させるために,スケーリング係数を用いた正確な勾配方向を用いる。
本手法は, 高い伝達性を示し, 最先端の手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2021-11-27T07:57:41Z) - Geometrically Adaptive Dictionary Attack on Face Recognition [23.712389625037442]
顔認証に対するクエリ効率の良いブラックボックス攻撃のための戦略を提案する。
中心となるアイデアは、UVテクスチャマップに逆方向の摂動を作り、それを画像の顔に投影することです。
LFWデータセットとCPLFWデータセットの実験において、圧倒的な性能改善を示す。
論文 参考訳(メタデータ) (2021-11-08T10:26:28Z) - Sparse and Imperceptible Adversarial Attack via a Homotopy Algorithm [93.80082636284922]
少数の敵対的攻撃は、数ピクセルを摂動するだけでディープ・ネットワーク(DNN)を騙すことができる。
近年の取り組みは、他の等級のl_infty摂動と組み合わせている。
本稿では,空間的・神経的摂動に対処するホモトピーアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-10T20:11:36Z) - Adversarial example generation with AdaBelief Optimizer and Crop
Invariance [8.404340557720436]
敵攻撃は、安全クリティカルなアプリケーションにおいて堅牢なモデルを評価し、選択するための重要な方法である。
本稿では,AdaBelief Iterative Fast Gradient Method (ABI-FGM)とCrop-Invariant attack Method (CIM)を提案する。
我々の手法は、最先端の勾配に基づく攻撃法よりも成功率が高い。
論文 参考訳(メタデータ) (2021-02-07T06:00:36Z) - Perturbation Analysis of Gradient-based Adversarial Attacks [2.3016608994689274]
本稿では,L-BFGS攻撃,反復的高速勾配符号攻撃,Carliini & Wagner's attack (CW) の3つの一般的な例生成手法の目的機能について検討する。
具体的には、ImageNetデータセットに大規模な実験結果を配置しながら、上記の攻撃の根底にある損失関数の比較および形式解析を行う。
実験の結果, 敵の例を生成するのに高速と思われる反復的高速勾配符号攻撃は, 敵の例を作成するのに要する反復回数において最悪の攻撃であることがわかった。
論文 参考訳(メタデータ) (2020-06-02T08:51:37Z) - Towards Transferable Adversarial Attack against Deep Face Recognition [58.07786010689529]
ディープ畳み込みニューラルネットワーク(DCNN)は敵の例に弱いことが判明した。
転送可能な敵の例は、DCNNの堅牢性を著しく妨げます。
DFANetは畳み込み層で使用されるドロップアウトベースの手法であり,サロゲートモデルの多様性を高めることができる。
クエリなしで4つの商用APIをうまく攻撃できる新しい対向顔ペアを生成します。
論文 参考訳(メタデータ) (2020-04-13T06:44:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。