論文の概要: Assessing Neural Network Robustness via Adversarial Pivotal Tuning
- arxiv url: http://arxiv.org/abs/2211.09782v2
- Date: Sat, 6 Jan 2024 12:51:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-10 00:35:23.011112
- Title: Assessing Neural Network Robustness via Adversarial Pivotal Tuning
- Title(参考訳): 共振器調整によるニューラルネットワークのロバスト性評価
- Authors: Peter Ebert Christensen, V\'esteinn Sn{\ae}bjarnarson, Andrea Dittadi,
Serge Belongie, Sagie Benaim
- Abstract要約: 予め訓練された画像生成装置が、詳細で多様で逆転的な方法で画像のセマンティックな操作にどのように使用できるかを示す。
近年のGANに基づく光リアリスティック手法に着想を得て,Adversarial Pivotal Tuning (APT) と呼ばれる手法を提案する。
APTは、様々な事前訓練された分類器を騙した、幅広いクラス保存セマンティックイメージ操作が可能であることを実証する。
- 参考スコア(独自算出の注目度): 24.329515700515806
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The robustness of image classifiers is essential to their deployment in the
real world. The ability to assess this resilience to manipulations or
deviations from the training data is thus crucial. These modifications have
traditionally consisted of minimal changes that still manage to fool
classifiers, and modern approaches are increasingly robust to them. Semantic
manipulations that modify elements of an image in meaningful ways have thus
gained traction for this purpose. However, they have primarily been limited to
style, color, or attribute changes. While expressive, these manipulations do
not make use of the full capabilities of a pretrained generative model. In this
work, we aim to bridge this gap. We show how a pretrained image generator can
be used to semantically manipulate images in a detailed, diverse, and
photorealistic way while still preserving the class of the original image.
Inspired by recent GAN-based image inversion methods, we propose a method
called Adversarial Pivotal Tuning (APT). Given an image, APT first finds a
pivot latent space input that reconstructs the image using a pretrained
generator. It then adjusts the generator's weights to create small yet semantic
manipulations in order to fool a pretrained classifier. APT preserves the full
expressive editing capabilities of the generative model. We demonstrate that
APT is capable of a wide range of class-preserving semantic image manipulations
that fool a variety of pretrained classifiers. Finally, we show that
classifiers that are robust to other benchmarks are not robust to APT
manipulations and suggest a method to improve them. Code available at:
https://captaine.github.io/apt/
- Abstract(参考訳): イメージ分類器の堅牢性は、実世界への展開に不可欠である。
したがって、トレーニングデータからの操作や逸脱に対するこのレジリエンスを評価する能力は不可欠です。
これらの修正は伝統的に、分類器を騙すための最小限の変更で成り立っており、現代のアプローチはそれらに対してますます堅牢である。
意味のある方法で画像の要素を変更するセマンティックな操作は、この目的のために牽引力を高めている。
しかし、それらは主にスタイル、色、属性の変更に限定されている。
表現的ではあるが、これらの操作は事前訓練された生成モデルの機能を完全には利用しない。
この作業では、このギャップを埋めることを目指しています。
本稿では,事前学習した画像生成装置を用いて,画像のクラスを保ちながら,詳細かつ多様かつフォトリアリスティックな方法で画像のセマンティックな操作を行う方法を示す。
近年のGANに基づく画像インバージョン法に着想を得て,Adversarial Pivotal Tuning (APT) と呼ばれる手法を提案する。
画像が与えられたとき、aptはまずプリトレーニングされたジェネレータを使って画像を再構成するピボット潜在空間入力を見つける。
そして、事前訓練された分類器を騙すために、ジェネレータの重みを調整して小さなセマンティックな操作を生成する。
APTは生成モデルの完全な表現的編集機能を保持する。
APTは、様々な事前訓練された分類器を騙した、幅広いクラス保存セマンティックイメージ操作が可能であることを実証する。
最後に,他のベンチマークに対してロバストな分類器はAPT操作に対してロバストではないことを示し,それらを改善する方法を提案する。
コード https://captaine.github.io/apt/
関連論文リスト
- Rejuvenating image-GPT as Strong Visual Representation Learners [28.77567067712619]
本稿では,次のピクセルの予測に自己回帰事前学習を導入する先駆的な研究である画像GPTを強化する。
我々は、予測対象を生の画素から意味トークンにシフトし、視覚的内容の高レベルな理解を可能にする。
実験では、D-iGPTが視覚表現の強力な学習者として優れていることが示された。
論文 参考訳(メタデータ) (2023-12-04T18:59:20Z) - Gradient Adjusting Networks for Domain Inversion [82.72289618025084]
StyleGAN2はセマンティック編集をサポートする強力な画像生成エンジンであることが実証された。
本稿では,画像毎の最適化手法を提案する。この手法は,生成元の重みを局所的に編集できるように,StyleGAN2ジェネレータをチューニングする。
我々の実験は、この非常にアクティブな領域における最先端技術よりも大きなパフォーマンス差を示している。
論文 参考訳(メタデータ) (2023-02-22T14:47:57Z) - Uncovering the Disentanglement Capability in Text-to-Image Diffusion
Models [60.63556257324894]
画像生成モデルの重要な特性は、異なる属性をアンタングルする能力である。
本稿では,2つのテキスト埋め込みの混合重みをスタイルマッチングとコンテンツ保存に最適化した,シンプルで軽量な画像編集アルゴリズムを提案する。
実験により,提案手法は拡散モデルに基づく画像編集アルゴリズムよりも優れた性能で,幅広い属性を修正可能であることが示された。
論文 参考訳(メタデータ) (2022-12-16T19:58:52Z) - Traditional Classification Neural Networks are Good Generators: They are
Competitive with DDPMs and GANs [104.72108627191041]
従来のニューラルネットワーク分類器は、最先端の生成モデルに匹敵する高品質な画像を生成することができることを示す。
マスクをベースとした再構成モジュールを提案し, 意味的勾配を意識し, 可視画像の合成を行う。
また,本手法は,画像テキスト基盤モデルに関して,テキスト・画像生成にも適用可能であることを示す。
論文 参考訳(メタデータ) (2022-11-27T11:25:35Z) - Masked Autoencoders are Robust Data Augmentors [90.34825840657774]
ディープニューラルネットワークの一般化には、画像拡張のような正規化技術が必要である。
本稿では,トレーニングプロセスの正規化に向けて,新たな拡張の視点を提案する。
このようなモデルに基づく非線形変換をデータ拡張として活用することで,高レベルの認識タスクを向上できることを示す。
論文 参考訳(メタデータ) (2022-06-10T02:41:48Z) - Match What Matters: Generative Implicit Feature Replay for Continual
Learning [0.0]
クラス増分学習のためのGenIFeR(Generative Implicit Feature Replay)を提案する。
主な目的は、GAN(Generative Adversarial Network)をトレーニングして、現実的な特徴を含む画像を生成することである。
我々は、GenIFeRが従来の生成画像と特徴再生の両方よりも優れていることを実証的に示す。
論文 参考訳(メタデータ) (2021-06-09T19:29:41Z) - Exploiting Deep Generative Prior for Versatile Image Restoration and
Manipulation [181.08127307338654]
本研究は, 大規模自然画像に基づいて学習したGAN(Generative Adversarial Network)により, 得られた画像の有効利用方法を示す。
深層生成前駆体(DGP)は、色、パッチ、解像度、様々な劣化した画像の欠落したセマンティクスを復元するための説得力のある結果を提供する。
論文 参考訳(メタデータ) (2020-03-30T17:45:07Z) - Denoised Smoothing: A Provable Defense for Pretrained Classifiers [101.67773468882903]
本稿では,事前訓練された画像分類器を$ell_p$の敵攻撃に対して確実に防御する手法を提案する。
この方法では、公開ビジョンAPIプロバイダやユーザは、トレーニング済みの非ロバスト分類サービスを、確実に堅牢なものにシームレスに変換することができる。
論文 参考訳(メタデータ) (2020-03-04T06:15:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。