論文の概要: Understanding the Intrinsic Robustness of Image Distributions using
Conditional Generative Models
- arxiv url: http://arxiv.org/abs/2003.00378v1
- Date: Sun, 1 Mar 2020 01:45:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-27 12:37:55.195351
- Title: Understanding the Intrinsic Robustness of Image Distributions using
Conditional Generative Models
- Title(参考訳): 条件付き生成モデルを用いた画像分布の固有ロバスト性理解
- Authors: Xiao Zhang, Jinghui Chen, Quanquan Gu, David Evans
- Abstract要約: 本稿では,2つの画像ベンチマークの内在的堅牢性について,$ell$摂動下で検討する。
我々は、我々の理論によって示唆されるロバスト性限界と現在の最先端ロバストモデルによって達成される対角的ロバスト性の間に大きなギャップが存在することを示す。
- 参考スコア(独自算出の注目度): 87.00072607024026
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Starting with Gilmer et al. (2018), several works have demonstrated the
inevitability of adversarial examples based on different assumptions about the
underlying input probability space. It remains unclear, however, whether these
results apply to natural image distributions. In this work, we assume the
underlying data distribution is captured by some conditional generative model,
and prove intrinsic robustness bounds for a general class of classifiers, which
solves an open problem in Fawzi et al. (2018). Building upon the
state-of-the-art conditional generative models, we study the intrinsic
robustness of two common image benchmarks under $\ell_2$ perturbations, and
show the existence of a large gap between the robustness limits implied by our
theory and the adversarial robustness achieved by current state-of-the-art
robust models. Code for all our experiments is available at
https://github.com/xiaozhanguva/Intrinsic-Rob.
- Abstract(参考訳): Gilmer et al. (2018) から、いくつかの研究が、基礎となる入力確率空間に関する異なる仮定に基づいて、逆例の必然性を証明している。
しかし、これらの結果が自然画像分布に当てはまるかどうかは不明である。
本研究では,ある条件付き生成モデルによって基礎となるデータ分布が捉えられると仮定し,Fawzi et al. (2018) の開問題を解く一般分類器の固有ロバスト性境界を証明した。
最先端条件付き生成モデルに基づいて,$\ell_2$ 摂動下での2つの共通画像ベンチマークの固有ロバスト性について検討し,本理論が示唆するロバスト性限界と,現在の最先端ロバストモデルが達成した逆ロバスト性との間に大きなギャップが存在することを示す。
すべての実験のコードはhttps://github.com/xiaozhanguva/Intrinsic-Rob.orgで公開されている。
関連論文リスト
- Fine-Tuning Image-Conditional Diffusion Models is Easier than You Think [53.2706196341054]
認識された非効率性は、これまで気付かれなかった推論パイプラインの欠陥によって引き起こされたことを示している。
タスク固有の損失を伴う単一ステップモデル上でエンドツーエンドの微調整を行い、他の拡散に基づく深さモデルや正規推定モデルよりも優れた決定論的モデルを得る。
論文 参考訳(メタデータ) (2024-09-17T16:58:52Z) - Identifiable Latent Neural Causal Models [82.14087963690561]
因果表現学習は、低レベルの観測データから潜伏した高レベルの因果表現を明らかにすることを目指している。
因果表現の識別可能性に寄与する分布シフトのタイプを決定する。
本稿では,本研究の成果を実用的なアルゴリズムに翻訳し,信頼性の高い潜在因果表現の取得を可能にする。
論文 参考訳(メタデータ) (2024-03-23T04:13:55Z) - The Surprising Harmfulness of Benign Overfitting for Adversarial
Robustness [13.120373493503772]
根拠的真理そのものが敵の例に対して堅牢であるとしても、標準のアウト・オブ・サンプルのリスク目標の観点から見れば、明らかに過適合なモデルは良性である、という驚くべき結果が証明されます。
我々の発見は、実際に観察されたパズリング現象に関する理論的洞察を与え、真の標的関数(例えば、人間)は副次的攻撃に対して堅牢であり、一方、当初過適合のニューラルネットワークは、堅牢でないモデルに導かれる。
論文 参考訳(メタデータ) (2024-01-19T15:40:46Z) - A Practical Upper Bound for the Worst-Case Attribution Deviations [21.341303776931532]
モデル属性は、複雑なモデルに対する解釈可能性において、ディープニューラルネットワーク(DNN)の重要な構成要素である。
近年の研究では、属性が異なる類似画像を生成する属性攻撃に弱いため、属性手法の安全性に注意が向けられている。
既存の研究はこれらの攻撃に対するDNNの堅牢性を実証的に改善している。
この研究において、制約付き最適化問題を初めて定式化し、ある領域内の雑音によってサンプルが摂動した後の属性の最大の相違を測る上限を導出する。
論文 参考訳(メタデータ) (2023-03-01T09:07:27Z) - Fairness Increases Adversarial Vulnerability [50.90773979394264]
フェアネスとロバストネスの間に二分法が存在することを示し、フェアネスを達成するとモデルロバストネスを減少させる。
非線形モデルと異なるアーキテクチャの実験は、複数の視覚領域における理論的発見を検証する。
フェアネスとロバストネスの良好なトレードオフを達成するためのモデルを構築するための,シンプルで効果的なソリューションを提案する。
論文 参考訳(メタデータ) (2022-11-21T19:55:35Z) - Image Generation with Multimodal Priors using Denoising Diffusion
Probabilistic Models [54.1843419649895]
このタスクを達成するために生成モデルを使用する際の大きな課題は、すべてのモダリティと対応する出力を含むペアデータの欠如である。
本稿では,拡散確率的合成モデルに基づく多モデル先行画像生成手法を提案する。
論文 参考訳(メタデータ) (2022-06-10T12:23:05Z) - Robustness via Uncertainty-aware Cycle Consistency [44.34422859532988]
非ペア画像-画像間の変換とは、対応する画像対を使わずに画像間マッピングを学習することを指す。
既存の手法は、外乱や予測の不確実性にロバスト性を明示的にモデル化することなく決定論的マッピングを学習する。
不確実性を考慮した一般化適応サイクル一貫性(UGAC)に基づく新しい確率的手法を提案する。
論文 参考訳(メタデータ) (2021-10-24T15:33:21Z) - Uncertainty-aware Generalized Adaptive CycleGAN [44.34422859532988]
unpaired image-to-image translationは、教師なしの方法で画像ドメイン間のマッピングを学ぶことを指す。
既存の手法はしばしば、外れ値への堅牢性や予測不確実性を明示的にモデル化せずに決定論的マッピングを学習する。
Uncertainty-aware Generalized Adaptive Cycle Consistency (UGAC) という新しい確率論的手法を提案する。
論文 参考訳(メタデータ) (2021-02-23T15:22:35Z) - Measuring Robustness to Natural Distribution Shifts in Image
Classification [67.96056447092428]
本研究では,データセットの自然変動に起因する分布変化に対して,現在のImageNetモデルがいかに堅牢かを検討する。
しばしば、現在の合成から自然分布へのロバストさの移動はほとんど、あるいは全くない。
実データにおける分布変化は,現在オープンな研究課題であることを示す。
論文 参考訳(メタデータ) (2020-07-01T17:53:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。