論文の概要: Towards Imperceptible Query-limited Adversarial Attacks with Perceptual
Feature Fidelity Loss
- arxiv url: http://arxiv.org/abs/2102.00449v1
- Date: Sun, 31 Jan 2021 13:32:55 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-02 18:27:25.128481
- Title: Towards Imperceptible Query-limited Adversarial Attacks with Perceptual
Feature Fidelity Loss
- Title(参考訳): 知覚的特徴的忠実性喪失を伴う非知覚的クエリ限定逆攻撃に向けて
- Authors: Pengrui Quan, Ruiming Guo, Mani Srivastava
- Abstract要約: そこで本研究では,低レベル画像特徴の忠実度と人間の視覚感度の関連性を利用した新しい知覚計測手法を提案する。
提案手法は, 種々の条件下で検証された, 生成した逆画像の不受容性を, 頑健に反映し, 記述できることを示す。
- 参考スコア(独自算出の注目度): 3.351714665243138
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, there has been a large amount of work towards fooling
deep-learning-based classifiers, particularly for images, via adversarial
inputs that are visually similar to the benign examples. However, researchers
usually use Lp-norm minimization as a proxy for imperceptibility, which
oversimplifies the diversity and richness of real-world images and human visual
perception. In this work, we propose a novel perceptual metric utilizing the
well-established connection between the low-level image feature fidelity and
human visual sensitivity, where we call it Perceptual Feature Fidelity Loss. We
show that our metric can robustly reflect and describe the imperceptibility of
the generated adversarial images validated in various conditions. Moreover, we
demonstrate that this metric is highly flexible, which can be conveniently
integrated into different existing optimization frameworks to guide the noise
distribution for better imperceptibility. The metric is particularly useful in
the challenging black-box attack with limited queries, where the
imperceptibility is hard to achieve due to the non-trivial perturbation power.
- Abstract(参考訳): 近年,特に画像の深層学習に基づく分類器を,視覚的に視覚的に類似した逆入力によって騙す取り組みが盛んに行われている。
しかしながら、研究者は通常Lp-ノルムの最小化を非受容性のプロキシとして使用し、現実世界の画像の多様性と豊かさと人間の視覚知覚を過度に単純化する。
本研究では,低レベルの画像特徴の忠実度と人間の視覚感度との密接な関係を利用して,知覚的特徴の忠実度を損なう新しい知覚指標を提案する。
本手法は,様々な条件下で検証された画像の可視性をロバストに反映し,記述できることを示す。
さらに,この測定基準は高い柔軟性を有しており,ノイズ分布を導くため,既存の様々な最適化フレームワークに便利に統合できることを示す。
この指標は、非自明な摂動力のために知覚不能が達成し難い、限られたクエリを伴う難解なブラックボックス攻撃において特に有用である。
関連論文リスト
- Transcending Adversarial Perturbations: Manifold-Aided Adversarial
Examples with Legitimate Semantics [10.058463432437659]
ディープニューラルネットワークは、悪意のある小さな摂動によって操作される敵の例に対して、極めて脆弱であった。
本稿では, 現実的, 合法的意味論による敵対的事例を生成するために, 教師付き意味変換生成モデルを提案する。
MNISTおよび産業用欠陥データセットを用いた実験により、我々の敵の例は、より良い視覚的品質を示しただけでなく、優れた攻撃伝達性を示した。
論文 参考訳(メタデータ) (2024-02-05T15:25:40Z) - When Measures are Unreliable: Imperceptible Adversarial Perturbations
toward Top-$k$ Multi-Label Learning [83.8758881342346]
新しい損失関数は、視覚的および測定的不受容性を両立できる敵の摂動を生成するために考案された。
大規模ベンチマークデータセットを用いた実験により,提案手法が最上位の$kのマルチラベルシステムを攻撃する際の優位性を実証した。
論文 参考訳(メタデータ) (2023-07-27T13:18:47Z) - Content-based Unrestricted Adversarial Attack [53.181920529225906]
本稿では,コンテンツベース非制限攻撃という新たな非制限攻撃フレームワークを提案する。
自然像を表す低次元多様体を利用することで、像を多様体上に写像し、その逆方向に沿って最適化する。
論文 参考訳(メタデータ) (2023-05-18T02:57:43Z) - On the Robustness of Quality Measures for GANs [136.18799984346248]
本研究は、インセプションスコア(IS)やFr'echet Inception Distance(FID)のような生成モデルの品質測定の堅牢性を評価する。
このような測度は、加算画素摂動によっても操作可能であることを示す。
論文 参考訳(メタデータ) (2022-01-31T06:43:09Z) - Robust Contrastive Learning against Noisy Views [79.71880076439297]
ノイズの多い視点に対して頑健な新しいコントラスト損失関数を提案する。
提案手法は,最新の画像,ビデオ,グラフのコントラスト学習ベンチマークに対して一貫した改善を提供する。
論文 参考訳(メタデータ) (2022-01-12T05:24:29Z) - Deblurring via Stochastic Refinement [85.42730934561101]
条件付き拡散モデルに基づくブラインドデブロアリングのための代替フレームワークを提案する。
提案手法は,PSNRなどの歪み指標の点で競合する。
論文 参考訳(メタデータ) (2021-12-05T04:36:09Z) - Inverting Adversarially Robust Networks for Image Synthesis [37.927552662984034]
本稿では,特徴反転モデルの知覚的プリミティブとしてロバスト表現を用いることを提案する。
画像として頑健な表現を採用することにより,CNNに基づく特徴反転モデルの再構成精度が大幅に向上することを示す。
そこで本研究では,ロバストな表現に基づく符号化復号ネットワークを提案し,異常検出,スタイル転送,画像復号化などの応用にその利点を示す。
論文 参考訳(メタデータ) (2021-06-13T05:51:00Z) - Perceptually Constrained Adversarial Attacks [2.0305676256390934]
通常適用される$L_p$ノルムを構造類似度指標(SSIM)尺度に置き換える。
当社のSSIM制限された敵対攻撃は、最先端の敵対的訓練を受けた分類器を破壊し、弾性ネット攻撃よりも類似またはより大きな成功率を達成できます。
本研究は,複数の防衛計画の性能を,従来よりも知覚的にはるかに有意義な方法で評価する。
論文 参考訳(メタデータ) (2021-02-14T12:28:51Z) - Proactive Pseudo-Intervention: Causally Informed Contrastive Learning
For Interpretable Vision Models [103.64435911083432]
PPI(Proactive Pseudo-Intervention)と呼ばれる新しい対照的な学習戦略を提案する。
PPIは、因果関係のない画像の特徴を保護するために積極的に介入する。
また,重要な画像画素を識別するための,因果的に通知された新たなサリエンスマッピングモジュールを考案し,モデル解釈の容易性を示す。
論文 参考訳(メタデータ) (2020-12-06T20:30:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。