論文の概要: Assessing Neural Network Robustness via Adversarial Pivotal Tuning
- arxiv url: http://arxiv.org/abs/2211.09782v1
- Date: Thu, 17 Nov 2022 18:54:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-18 15:52:51.930658
- Title: Assessing Neural Network Robustness via Adversarial Pivotal Tuning
- Title(参考訳): 共振器調整によるニューラルネットワークのロバスト性評価
- Authors: Peter Ebert Christensen, V\'esteinn Sn{\ae}bjarnarson, Andrea Dittadi,
Serge Belongie, Sagie Benaim
- Abstract要約: 本稿では,Adversarial Pivotal Tuning (APT) という手法を提案する。
APTは、入力画像を最もよく再構成する事前訓練されたジェネレータに入力されるピボット潜在空間を見つける。
次に、ジェネレータの重みを調整して、トレーニング済みの分類器を騙す小さなセマンティックな操作を生成する。
- 参考スコア(独自算出の注目度): 23.18664135656165
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The ability to assess the robustness of image classifiers to a diverse set of
manipulations is essential to their deployment in the real world. Recently,
semantic manipulations of real images have been considered for this purpose, as
they may not arise using standard adversarial settings. However, such semantic
manipulations are often limited to style, color or attribute changes. While
expressive, these manipulations do not consider the full capacity of a
pretrained generator to affect adversarial image manipulations. In this work,
we aim at leveraging the full capacity of a pretrained image generator to
generate highly detailed, diverse and photorealistic image manipulations.
Inspired by recent GAN-based image inversion methods, we propose a method
called Adversarial Pivotal Tuning (APT). APT first finds a pivot latent space
input to a pretrained generator that best reconstructs an input image. It then
adjusts the weights of the generator to create small, but semantic,
manipulations which fool a pretrained classifier. Crucially, APT changes both
the input and the weights of the pretrained generator, while preserving its
expressive latent editing capability, thus allowing the use of its full
capacity in creating semantic adversarial manipulations. We demonstrate that
APT generates a variety of semantic image manipulations, which preserve the
input image class, but which fool a variety of pretrained classifiers. We
further demonstrate that classifiers trained to be robust to other robustness
benchmarks, are not robust to our generated manipulations and propose an
approach to improve the robustness towards our generated manipulations. Code
available at: https://captaine.github.io/apt/
- Abstract(参考訳): 多様な操作セットに対する画像分類器のロバスト性を評価する能力は、現実世界での展開に不可欠である。
近年,実際の画像の意味的操作が検討されているが,これは通常の敵意設定では発生しない可能性がある。
しかし、このような意味的な操作は、しばしばスタイル、色、属性の変更に限られる。
表現力は高いが、これらの操作は、予め訓練されたジェネレータの完全な能力を考慮していない。
本研究では,事前学習した画像生成装置のフル能力を活用し,高精細で多彩でフォトリアリスティックな画像操作を実現することを目的とする。
近年のGANに基づく画像インバージョン法に着想を得て,Adversarial Pivotal Tuning (APT) と呼ばれる手法を提案する。
APTはまず、入力画像を最もよく再構成する予め訓練された発電機に入力されたピボット潜在空間を見つける。
次に、ジェネレータの重みを調整して、トレーニング済みの分類器を騙す小さなセマンティックな操作を生成する。
重要なことは、APTは事前訓練されたジェネレータの入力と重みの両方を変更し、表現力のある潜在編集能力を保ち、セマンティックな敵操作を作成するのにその完全な能力を利用することができる。
我々は、APTが入力画像のクラスを保存する様々な意味的イメージ操作を生成するが、事前訓練された様々な分類器を騙すことを実証する。
さらに、他の堅牢性ベンチマークに対して堅牢であるように訓練された分類器は、生成した操作に対して堅牢ではないことを実証し、生成した操作に対する堅牢性を改善するアプローチを提案する。
コード https://captaine.github.io/apt/
関連論文リスト
- Rejuvenating image-GPT as Strong Visual Representation Learners [28.77567067712619]
本稿では,次のピクセルの予測に自己回帰事前学習を導入する先駆的な研究である画像GPTを強化する。
我々は、予測対象を生の画素から意味トークンにシフトし、視覚的内容の高レベルな理解を可能にする。
実験では、D-iGPTが視覚表現の強力な学習者として優れていることが示された。
論文 参考訳(メタデータ) (2023-12-04T18:59:20Z) - Gradient Adjusting Networks for Domain Inversion [82.72289618025084]
StyleGAN2はセマンティック編集をサポートする強力な画像生成エンジンであることが実証された。
本稿では,画像毎の最適化手法を提案する。この手法は,生成元の重みを局所的に編集できるように,StyleGAN2ジェネレータをチューニングする。
我々の実験は、この非常にアクティブな領域における最先端技術よりも大きなパフォーマンス差を示している。
論文 参考訳(メタデータ) (2023-02-22T14:47:57Z) - Uncovering the Disentanglement Capability in Text-to-Image Diffusion
Models [60.63556257324894]
画像生成モデルの重要な特性は、異なる属性をアンタングルする能力である。
本稿では,2つのテキスト埋め込みの混合重みをスタイルマッチングとコンテンツ保存に最適化した,シンプルで軽量な画像編集アルゴリズムを提案する。
実験により,提案手法は拡散モデルに基づく画像編集アルゴリズムよりも優れた性能で,幅広い属性を修正可能であることが示された。
論文 参考訳(メタデータ) (2022-12-16T19:58:52Z) - Traditional Classification Neural Networks are Good Generators: They are
Competitive with DDPMs and GANs [104.72108627191041]
従来のニューラルネットワーク分類器は、最先端の生成モデルに匹敵する高品質な画像を生成することができることを示す。
マスクをベースとした再構成モジュールを提案し, 意味的勾配を意識し, 可視画像の合成を行う。
また,本手法は,画像テキスト基盤モデルに関して,テキスト・画像生成にも適用可能であることを示す。
論文 参考訳(メタデータ) (2022-11-27T11:25:35Z) - Masked Autoencoders are Robust Data Augmentors [90.34825840657774]
ディープニューラルネットワークの一般化には、画像拡張のような正規化技術が必要である。
本稿では,トレーニングプロセスの正規化に向けて,新たな拡張の視点を提案する。
このようなモデルに基づく非線形変換をデータ拡張として活用することで,高レベルの認識タスクを向上できることを示す。
論文 参考訳(メタデータ) (2022-06-10T02:41:48Z) - Match What Matters: Generative Implicit Feature Replay for Continual
Learning [0.0]
クラス増分学習のためのGenIFeR(Generative Implicit Feature Replay)を提案する。
主な目的は、GAN(Generative Adversarial Network)をトレーニングして、現実的な特徴を含む画像を生成することである。
我々は、GenIFeRが従来の生成画像と特徴再生の両方よりも優れていることを実証的に示す。
論文 参考訳(メタデータ) (2021-06-09T19:29:41Z) - Exploiting Deep Generative Prior for Versatile Image Restoration and
Manipulation [181.08127307338654]
本研究は, 大規模自然画像に基づいて学習したGAN(Generative Adversarial Network)により, 得られた画像の有効利用方法を示す。
深層生成前駆体(DGP)は、色、パッチ、解像度、様々な劣化した画像の欠落したセマンティクスを復元するための説得力のある結果を提供する。
論文 参考訳(メタデータ) (2020-03-30T17:45:07Z) - Denoised Smoothing: A Provable Defense for Pretrained Classifiers [101.67773468882903]
本稿では,事前訓練された画像分類器を$ell_p$の敵攻撃に対して確実に防御する手法を提案する。
この方法では、公開ビジョンAPIプロバイダやユーザは、トレーニング済みの非ロバスト分類サービスを、確実に堅牢なものにシームレスに変換することができる。
論文 参考訳(メタデータ) (2020-03-04T06:15:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。