論文の概要: Globally-Robust Neural Networks
- arxiv url: http://arxiv.org/abs/2102.08452v1
- Date: Tue, 16 Feb 2021 21:10:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-18 14:42:44.926039
- Title: Globally-Robust Neural Networks
- Title(参考訳): グローバルロバストニューラルネットワーク
- Authors: Klas Leino, Zifan Wang, Matt Fredrikson
- Abstract要約: 我々は、オンラインローカルロバストネス認証の運用特性を捉えた、グローバルロバストネスの概念を定式化する。
効率的なグローバルLipschitz境界をネットワークに組み込むことにより、広く使用されているアーキテクチャをこの目的に容易に適応できることを示します。
- 参考スコア(独自算出の注目度): 21.614262520734595
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The threat of adversarial examples has motivated work on training certifiably
robust neural networks, to facilitate efficient verification of local
robustness at inference time. We formalize a notion of global robustness, which
captures the operational properties of on-line local robustness certification
while yielding a natural learning objective for robust training. We show that
widely-used architectures can be easily adapted to this objective by
incorporating efficient global Lipschitz bounds into the network, yielding
certifiably-robust models by construction that achieve state-of-the-art
verifiable and clean accuracy. Notably, this approach requires significantly
less time and memory than recent certifiable training methods, and leads to
negligible costs when certifying points on-line; for example, our evaluation
shows that it is possible to train a large tiny-imagenet model in a matter of
hours. We posit that this is possible using inexpensive global bounds --
despite prior suggestions that tighter local bounds are needed for good
performance -- because these models are trained to achieve tighter global
bounds. Namely, we prove that the maximum achievable verifiable accuracy for a
given dataset is not improved by using a local bound.
- Abstract(参考訳): 敵対的な例の脅威は、推論時の局所的堅牢性の効率的な検証を促進するために、証明可能な堅牢なニューラルネットワークの訓練に動機づけられた。
グローバルロバスト性の概念を形式化し、オンラインローカルロバスト性認定の運用特性を捉えながら、堅牢なトレーニングのための自然学習目標を実現します。
本研究では,この目的に対して,効率的なグローバルリプシッツバウンダリをネットワークに組み込むことで,最先端の検証とクリーンな精度を実現する構築により,信頼性の高いロバストモデルが得られることを示す。
特に,本手法は,近年の認定トレーニング手法よりも時間とメモリを著しく少なくし,ポイントをオンラインに認定する際の無視可能なコストにつながる。
我々は、より安価なグローバル境界(以前の提案では、良いパフォーマンスのためにより厳密なローカル境界が必要である)を使用することで、これが可能であることを実証する。
すなわち,与えられたデータセットに対する最大可否検証精度は,局所境界を用いることで向上しないことを示す。
関連論文リスト
- Certifying Global Robustness for Deep Neural Networks [3.8556106468003613]
グローバルなディープニューラルネットワークは、すべての意味のある入力に対する摂動に抵抗する。
現在のロバストネス認証手法は、局所ロバストネスを強調し、スケールと一般化に苦慮している。
本稿では,ディープニューラルネットワークのグローバルロバスト性を評価・検証するための体系的かつ効率的な手法を提案する。
論文 参考訳(メタデータ) (2024-05-31T00:46:04Z) - Dynamic Regularized Sharpness Aware Minimization in Federated Learning: Approaching Global Consistency and Smooth Landscape [59.841889495864386]
フェデレートラーニング(FL)では、グローバルサーバの協調の下で、ローカルクライアントのクラスタがチェアリングされる。
クライアントは自身のオプティマに過度に適合する傾向にあり、グローバルな目標から非常に逸脱する。
tt Family FedSMOOは、グローバルな目的に対する局所的な最適性を保証するために動的正規化器を採用する。
理論解析により, tt Family FedSMOO は, 低境界一般化による高速$mathcalO (1/T)$収束率を達成することが示された。
論文 参考訳(メタデータ) (2023-05-19T10:47:44Z) - Quantization-aware Interval Bound Propagation for Training Certifiably
Robust Quantized Neural Networks [58.195261590442406]
我々は、逆向きに頑健な量子化ニューラルネットワーク(QNN)の訓練と証明の課題について検討する。
近年の研究では、浮動小数点ニューラルネットワークが量子化後の敵攻撃に対して脆弱であることが示されている。
本稿では、堅牢なQNNをトレーニングするための新しい方法であるQA-IBP(quantization-aware interval bound propagation)を提案する。
論文 参考訳(メタデータ) (2022-11-29T13:32:38Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - Training Certifiably Robust Neural Networks with Efficient Local
Lipschitz Bounds [99.23098204458336]
認証された堅牢性は、安全クリティカルなアプリケーションにおいて、ディープニューラルネットワークにとって望ましい性質である。
提案手法は,MNISTおよびTinyNetデータセットにおける最先端の手法より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2021-11-02T06:44:10Z) - LoGG3D-Net: Locally Guided Global Descriptor Learning for 3D Place
Recognition [31.105598103211825]
追加のトレーニング信号(局所的整合性損失)が、リビジョン間で一貫性のある局所的特徴の学習にネットワークを導くことができることを示す。
私たちは、LoGG3D-Netと呼ばれるエンドツーエンドのトレーニング可能なアーキテクチャでアプローチを定式化します。
論文 参考訳(メタデータ) (2021-09-17T03:32:43Z) - Unsupervised Domain-adaptive Hash for Networks [81.49184987430333]
ドメイン適応型ハッシュ学習はコンピュータビジョンコミュニティでかなりの成功を収めた。
UDAHと呼ばれるネットワークのための教師なしドメイン適応型ハッシュ学習手法を開発した。
論文 参考訳(メタデータ) (2021-08-20T12:09:38Z) - Mixed-Privacy Forgetting in Deep Networks [114.3840147070712]
大規模画像分類タスクにおいてトレーニングされたネットワークの重みからトレーニングサンプルのサブセットの影響を除去できることを示す。
そこで本研究では,混合プライバシー設定における「忘れ」という新しい概念を導入する。
提案手法は,モデル精度のトレードオフを伴わずに忘れることができることを示す。
論文 参考訳(メタデータ) (2020-12-24T19:34:56Z) - Data-Driven Assessment of Deep Neural Networks with Random Input
Uncertainty [14.191310794366075]
我々は,ネットワーク出力の安全性を同時に証明し,ローカライズ可能なデータ駆動最適化手法を開発した。
深部ReLUネットワークにおける提案手法の有効性とトラクタビリティを実験的に実証した。
論文 参考訳(メタデータ) (2020-10-02T19:13:35Z) - Regularized Training and Tight Certification for Randomized Smoothed
Classifier with Provable Robustness [15.38718018477333]
我々は新たな正規化リスクを導出し、正規化器はスムーズな手法の精度と堅牢性を適応的に促進することができる。
また、正規化効果を利用して、高い確率で保持されるより厳密なロバスト性の下限を提供する新しい認証アルゴリズムを設計する。
論文 参考訳(メタデータ) (2020-02-17T20:54:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。