論文の概要: Towards Understanding the Generative Capability of Adversarially Robust
Classifiers
- arxiv url: http://arxiv.org/abs/2108.09093v1
- Date: Fri, 20 Aug 2021 10:13:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-23 13:36:08.814817
- Title: Towards Understanding the Generative Capability of Adversarially Robust
Classifiers
- Title(参考訳): 逆ロバスト分類器の生成能力の理解に向けて
- Authors: Yao Zhu, Jiacheng Ma, Jiacheng Sun, Zewei Chen, Rongxin Jiang, Zhenguo
Li
- Abstract要約: 我々は、エネルギー関数の観点から、対向例生成、対向訓練、画像生成を再構成する。
逆行訓練は, 実データの周りのエネルギーが低く, 平坦なエネルギー関数を得るのに有効であることがわかった。
本稿では,高品質な画像を生成するための,より優れた対人訓練手法であるJEATを提案する。
- 参考スコア(独自算出の注目度): 23.69668430029522
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, some works found an interesting phenomenon that adversarially
robust classifiers can generate good images comparable to generative models. We
investigate this phenomenon from an energy perspective and provide a novel
explanation. We reformulate adversarial example generation, adversarial
training, and image generation in terms of an energy function. We find that
adversarial training contributes to obtaining an energy function that is flat
and has low energy around the real data, which is the key for generative
capability. Based on our new understanding, we further propose a better
adversarial training method, Joint Energy Adversarial Training (JEAT), which
can generate high-quality images and achieve new state-of-the-art robustness
under a wide range of attacks. The Inception Score of the images (CIFAR-10)
generated by JEAT is 8.80, much better than original robust classifiers (7.50).
In particular, we achieve new state-of-the-art robustness on CIFAR-10 (from
57.20% to 62.04%) and CIFAR-100 (from 30.03% to 30.18%) without extra training
data.
- Abstract(参考訳): 最近では、逆向きに頑健な分類器が生成モデルに匹敵する優れた画像を生成できる興味深い現象が発見されている。
我々は,この現象をエネルギーの観点から検討し,新しい説明を与える。
我々は、エネルギー関数の観点から、対向例生成、対向訓練、画像生成を再構成する。
逆行訓練は, 生成能力の鍵となる, 実データを中心とした低エネルギーで平坦なエネルギー関数の獲得に寄与することがわかった。
また,我々の新たな理解に基づいて,高品質な画像を生成し,広範囲の攻撃下で新たな最先端のロバスト性を実現する,より優れた対人訓練手法であるJEATを提案する。
JEATが生成した画像のインセプションスコア(CIFAR-10)は8.80であり、オリジナルの堅牢な分類器(7.50)よりもはるかに優れている。
特に, CIFAR-10 (57.20%から62.04%) と CIFAR-100 (30.03%から30.18%) に対して, 余分なトレーニングデータなしで新たな最先端の堅牢性を実現する。
関連論文リスト
- Shedding More Light on Robust Classifiers under the lens of Energy-based Models [3.953603590878949]
我々は、敵対的訓練(AT)のダイナミクスについて、新しい視点を提供する。
ATにおけるエネルギー環境の分析により、標的外攻撃は、モデルの観点からの本来のデータよりも、より分散した(低エネルギー)敵画像を生成することが明らかとなった。
厳格なエビデンスを動機とした重エネルギー教育(WEAT)の提案
論文 参考訳(メタデータ) (2024-07-08T18:31:19Z) - MeanSparse: Post-Training Robustness Enhancement Through Mean-Centered Feature Sparsification [32.70084821901212]
MeanSparseは、敵の例に対する畳み込みと注意に基づくニューラルネットワークの堅牢性を改善する方法である。
実験の結果,MeanSparseは75.28%の新しいロバストネス記録を達成した。
論文 参考訳(メタデータ) (2024-06-09T22:14:55Z) - Data-Independent Operator: A Training-Free Artifact Representation
Extractor for Generalizable Deepfake Detection [105.9932053078449]
本研究では,より一般的な人工物表現を捉えるのに,小型かつトレーニング不要なフィルタが十分であることを示す。
トレーニングソースとテストソースの両方に不偏があるため、未確認ソースに対して魅力的な改善を実現するために、Data-Independent Operator (DIO)と定義する。
我々の検出器は13.3%の大幅な改善を実現し、新しい最先端の性能を確立した。
論文 参考訳(メタデータ) (2024-03-11T15:22:28Z) - Adv-Diffusion: Imperceptible Adversarial Face Identity Attack via Latent
Diffusion Model [61.53213964333474]
本稿では,生の画素空間ではなく,潜在空間における非知覚的対角的アイデンティティ摂動を生成できる統一的なフレームワークAdv-Diffusionを提案する。
具体的には,周囲のセマンティックな摂動を生成するために,個人性に敏感な条件付き拡散生成モデルを提案する。
設計された適応強度に基づく対向摂動アルゴリズムは、攻撃の伝達性とステルス性の両方を確保することができる。
論文 参考訳(メタデータ) (2023-12-18T15:25:23Z) - Towards a Smaller Student: Capacity Dynamic Distillation for Efficient
Image Retrieval [49.01637233471453]
従来の知識蒸留に基づく効率的な画像検索手法は,高速推論のための学生モデルとして軽量なネットワークを用いる。
本稿では,編集可能な表現能力を持つ学生モデルを構築するための容量動的蒸留フレームワークを提案する。
提案手法は,教師としてのResNet101を前提として,VeRi-776データセットなどの推論速度と精度が優れている。
論文 参考訳(メタデータ) (2023-03-16T11:09:22Z) - Semantic Driven Energy based Out-of-Distribution Detection [0.4640835690336652]
エネルギーベースのOOD法は有望であり、優れた性能を発揮することが証明されている。
本稿では,エンドツーエンドのトレーニングシステムであり,最適化が容易なセマンティックなエネルギーベース手法を提案する。
その結果,我々の新しい手法は,一般的なベンチマーク上でのエネルギーベースモデルとして,外乱検出を強化し,最先端のモデルを実現する。
論文 参考訳(メタデータ) (2022-08-23T07:40:34Z) - A Unified Contrastive Energy-based Model for Understanding the
Generative Ability of Adversarial Training [64.71254710803368]
Adversarial Training (AT) は、ディープニューラルネットワークの堅牢性を高める効果的なアプローチである。
我々は、Contrastive Energy-based Models(CEM)と呼ばれる統合確率的枠組みを開発することにより、この現象をデミステレーションする。
本稿では,逆学習法とサンプリング法を開発するための原則的手法を提案する。
論文 参考訳(メタデータ) (2022-03-25T05:33:34Z) - Match What Matters: Generative Implicit Feature Replay for Continual
Learning [0.0]
クラス増分学習のためのGenIFeR(Generative Implicit Feature Replay)を提案する。
主な目的は、GAN(Generative Adversarial Network)をトレーニングして、現実的な特徴を含む画像を生成することである。
我々は、GenIFeRが従来の生成画像と特徴再生の両方よりも優れていることを実証的に示す。
論文 参考訳(メタデータ) (2021-06-09T19:29:41Z) - Differentiable Augmentation for Data-Efficient GAN Training [48.920992130257595]
DiffAugmentは,実検体と偽検体の両方に様々な種類の微分可能拡張を付与することにより,GANのデータ効率を向上させる簡易な手法である。
本手法は,既存の移動学習アルゴリズムと同等でありながら,事前学習することなく,100個の画像のみを用いて高忠実度画像を生成することができる。
論文 参考訳(メタデータ) (2020-06-18T17:59:01Z) - Towards Achieving Adversarial Robustness by Enforcing Feature
Consistency Across Bit Planes [51.31334977346847]
我々は、高ビット平面の情報に基づいて粗い印象を形成するためにネットワークを訓練し、低ビット平面を用いて予測を洗練させる。
異なる量子化画像間で学習した表現に一貫性を付与することにより、ネットワークの対角的ロバスト性が大幅に向上することを示した。
論文 参考訳(メタデータ) (2020-04-01T09:31:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。