論文の概要: Learning perturbation sets for robust machine learning
- arxiv url: http://arxiv.org/abs/2007.08450v2
- Date: Thu, 8 Oct 2020 13:03:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-09 22:24:28.896092
- Title: Learning perturbation sets for robust machine learning
- Title(参考訳): 堅牢な機械学習のための学習摂動セット
- Authors: Eric Wong and J. Zico Kolter
- Abstract要約: 我々は、潜在空間の制約領域上に設定された摂動を定義する条件生成器を用いる。
学習した摂動集合の質を定量的かつ質的に測定する。
我々は、学習した摂動集合を利用して、敵画像の破損や逆光の変動に対して経験的かつ確実に堅牢なモデルを訓練する。
- 参考スコア(独自算出の注目度): 97.6757418136662
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although much progress has been made towards robust deep learning, a
significant gap in robustness remains between real-world perturbations and more
narrowly defined sets typically studied in adversarial defenses. In this paper,
we aim to bridge this gap by learning perturbation sets from data, in order to
characterize real-world effects for robust training and evaluation.
Specifically, we use a conditional generator that defines the perturbation set
over a constrained region of the latent space. We formulate desirable
properties that measure the quality of a learned perturbation set, and
theoretically prove that a conditional variational autoencoder naturally
satisfies these criteria. Using this framework, our approach can generate a
variety of perturbations at different complexities and scales, ranging from
baseline spatial transformations, through common image corruptions, to lighting
variations. We measure the quality of our learned perturbation sets both
quantitatively and qualitatively, finding that our models are capable of
producing a diverse set of meaningful perturbations beyond the limited data
seen during training. Finally, we leverage our learned perturbation sets to
train models which are empirically and certifiably robust to adversarial image
corruptions and adversarial lighting variations, while improving generalization
on non-adversarial data. All code and configuration files for reproducing the
experiments as well as pretrained model weights can be found at
https://github.com/locuslab/perturbation_learning.
- Abstract(参考訳): 強固なディープラーニングに向けて多くの進歩がなされているが、現実世界の摂動とより狭く定義された集合の間には強固さの差が残っている。
本稿では,データから摂動集合を学習することで,このギャップを埋めることを目的とする。
具体的には、潜在空間の制約領域上に設定された摂動を定義する条件生成器を用いる。
学習摂動集合の品質を測定するための望ましい特性を定式化し、条件付き変分オートエンコーダがこれらの基準を満たすことを理論的に証明する。
この枠組みを用いることで、ベースライン空間変換から一般的な画像の劣化、照明の変動に至るまで、様々な複雑さやスケールの摂動を発生させることができる。
学習した摂動集合の質を量的・質的に測定し、トレーニング中に見られる限られたデータを超えた多様な有意義な摂動を生成できることを見出した。
最後に、学習した摂動集合を利用して、敵対的画像の破損や逆光の変動に対して経験的かつ確実に堅牢なモデルを訓練し、非敵対的データの一般化を改善した。
実験を再現するためのコードと構成ファイル、および事前トレーニングされたモデルの重み付けはすべて、https://github.com/locuslab/perturbation_learningにある。
関連論文リスト
- MOREL: Enhancing Adversarial Robustness through Multi-Objective Representation Learning [1.534667887016089]
ディープニューラルネットワーク(DNN)は、わずかに敵対的な摂動に対して脆弱である。
トレーニング中の強力な特徴表現学習は、元のモデルの堅牢性を大幅に向上させることができることを示す。
本稿では,多目的特徴表現学習手法であるMORELを提案する。
論文 参考訳(メタデータ) (2024-10-02T16:05:03Z) - Enhancing Multiple Reliability Measures via Nuisance-extended
Information Bottleneck [77.37409441129995]
トレーニングデータに制限がある現実的なシナリオでは、データ内の多くの予測信号は、データ取得のバイアスからより多く得る。
我々は,相互情報制約の下で,より広い範囲の摂動をカバーできる敵の脅威モデルを考える。
そこで本研究では,その目的を実現するためのオートエンコーダベーストレーニングと,提案したハイブリッド識別世代学習を促進するための実用的なエンコーダ設計を提案する。
論文 参考訳(メタデータ) (2023-03-24T16:03:21Z) - Robustness and invariance properties of image classifiers [8.970032486260695]
ディープニューラルネットワークは多くの画像分類タスクで印象的な結果を得た。
ディープネットワークは、多種多様なセマンティック保存画像修正に対して堅牢ではない。
画像分類器の小さなデータ分散シフトに対する堅牢性の低さは、その信頼性に関する深刻な懸念を引き起こす。
論文 参考訳(メタデータ) (2022-08-30T11:00:59Z) - Stabilizing Adversarially Learned One-Class Novelty Detection Using
Pseudo Anomalies [22.48845887819345]
異常スコアは、逆学習されたジェネレータの再構成損失と/または識別器の分類損失を用いて定式化されている。
トレーニングデータにおける異常な例の有効性は、そのようなネットワークの最適化を困難にしている。
本研究では,判別器の基本的役割を,実データと偽データとの識別から,良質データと悪質データとの区別に転換することで,そのような不安定性を克服する堅牢な異常検出フレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-25T15:37:52Z) - Is Disentanglement enough? On Latent Representations for Controllable
Music Generation [78.8942067357231]
強い生成デコーダが存在しない場合、アンタングル化は必ずしも制御性を意味するものではない。
VAEデコーダに対する潜伏空間の構造は、異なる属性を操作するための生成モデルの能力を高める上で重要な役割を果たす。
論文 参考訳(メタデータ) (2021-08-01T18:37:43Z) - Natural Perturbed Training for General Robustness of Neural Network
Classifiers [0.0]
自然摂動学習は、自然摂動画像だけでなく、清潔で敵意のある画像に対する敵の訓練よりも、より良く、はるかに速いパフォーマンスを示す。
cifar-10とstl-10の自然摂動トレーニングでは、クリーンデータの精度が向上し、アートパフォーマンスが向上する。
論文 参考訳(メタデータ) (2021-03-21T11:47:38Z) - Attribute-Guided Adversarial Training for Robustness to Natural
Perturbations [64.35805267250682]
本稿では,属性空間への分類器の露出を最大化するために,新しいサンプルを生成することを学習する逆学習手法を提案する。
我々のアプローチは、ディープニューラルネットワークが自然に発生する摂動に対して堅牢であることを可能にする。
論文 参考訳(メタデータ) (2020-12-03T10:17:30Z) - Stereopagnosia: Fooling Stereo Networks with Adversarial Perturbations [71.00754846434744]
知覚不能な加法的摂動は,差分マップを著しく変更できることを示す。
敵データ拡張に使用すると、我々の摂動はより堅牢なトレーニングされたモデルをもたらすことを示す。
論文 参考訳(メタデータ) (2020-09-21T19:20:09Z) - Model-Based Robust Deep Learning: Generalizing to Natural,
Out-of-Distribution Data [104.69689574851724]
本稿では,摂動に基づく逆方向の強靭性からモデルに基づく頑健な深層学習へのパラダイムシフトを提案する。
我々の目標は、深層ニューラルネットワークを訓練し、データの自然な変動に対して堅牢にするための一般的なトレーニングアルゴリズムを提供することです。
論文 参考訳(メタデータ) (2020-05-20T13:46:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。