論文の概要: Certified Training: Small Boxes are All You Need
- arxiv url: http://arxiv.org/abs/2210.04871v1
- Date: Mon, 10 Oct 2022 17:44:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-11 19:41:07.745898
- Title: Certified Training: Small Boxes are All You Need
- Title(参考訳): 認定トレーニング:小さな箱は必要なだけ
- Authors: Mark Niklas M\"uller, Franziska Eckert, Marc Fischer, Martin Vechev
- Abstract要約: 我々は,MNIST, CIFAR-10, TinyImageNetにおいて, 摂動のマグニチュードにまたがる既存の手法より優れた新しい認証トレーニング手法SABRを提案する。
SABRの背後にある重要な洞察は、逆入力領域の小さいが慎重に選択された部分集合に対する間隔境界の伝播は、全領域の最悪の損失を近似するのに十分であるということである。
- 参考スコア(独自算出の注目度): 5.161531917413708
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose the novel certified training method, SABR, which outperforms
existing methods across perturbation magnitudes on MNIST, CIFAR-10, and
TinyImageNet, in terms of both standard and certifiable accuracies. The key
insight behind SABR is that propagating interval bounds for a small but
carefully selected subset of the adversarial input region is sufficient to
approximate the worst-case loss over the whole region while significantly
reducing approximation errors. SABR does not only establish a new
state-of-the-art in all commonly used benchmarks but more importantly, points
to a new class of certified training methods promising to overcome the
robustness-accuracy trade-off.
- Abstract(参考訳): 本稿では,MNIST, CIFAR-10, TinyImageNetの摂動大小の既存手法を, 標準および認証精度の両面から比較し, 性能を向上する新しい認証トレーニング手法SABRを提案する。
SABRの背後にある重要な洞察は、逆入力領域の小さいが慎重に選択された部分集合に対する間隔境界の伝播は、近似誤差を著しく低減しつつ、領域全体の最悪の損失を近似するのに十分であるということである。
SABRは、一般的に使用されているすべてのベンチマークにおいて新しい最先端の指標を確立するだけでなく、より重要なのは、ロバストネスと精度のトレードオフを克服することを約束する新しい認定トレーニング手法を指摘する。
関連論文リスト
- Cross-Input Certified Training for Universal Perturbations [4.456428506059651]
現在の認定訓練方法は、単一入力の摂動に対して頑健なモデルを訓練するが、最適以下の清浄とUAPの精度を達成する。
UAP攻撃者に対して堅牢なネットワークの認証トレーニングのための新しい手法CITRUSを提案する。
提案手法は標準精度(最大10.3%)で従来の認証されたトレーニング手法より優れており,より実用的な認証済みのUAP精度でSOTA性能を実現することができる。
論文 参考訳(メタデータ) (2024-05-15T08:33:41Z) - Rethinking Classifier Re-Training in Long-Tailed Recognition: A Simple
Logits Retargeting Approach [102.0769560460338]
我々は,クラスごとのサンプル数に関する事前知識を必要とせず,シンプルなロジットアプローチ(LORT)を開発した。
提案手法は,CIFAR100-LT, ImageNet-LT, iNaturalist 2018など,様々な不均衡データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-01T03:27:08Z) - Exploring Vacant Classes in Label-Skewed Federated Learning [113.65301899666645]
クライアント間の局所的なラベル分布の相違を特徴とするラベルスキューは、連合学習において大きな課題となる。
本稿では, ラベルスキュード・フェデレート学習における新しい手法であるFedVLSについて紹介する。
論文 参考訳(メタデータ) (2024-01-04T16:06:31Z) - Adaptive Certified Training: Towards Better Accuracy-Robustness
Tradeoffs [17.46692880231195]
本稿では,適応型認定ラジイを用いたトレーニングがモデルの精度と堅牢性の向上に役立つというキーインサイトに基づく,新しい認定トレーニング手法を提案する。
提案手法の有効性を,MNIST,CIFAR-10,TinyImageNetデータセットに示す。
論文 参考訳(メタデータ) (2023-07-24T18:59:46Z) - TAPS: Connecting Certified and Adversarial Training [6.688598900034783]
TAPSはIPPとPGDを併用して、必ずしも音質の悪い損失近似を行うわけではないが、精度の高いトレーニング手法である。
TAPSは多くの設定で新しい最先端を実現しており、例えばTinyImageNetでは22%の精度で認証されている。
論文 参考訳(メタデータ) (2023-05-08T09:32:05Z) - Predicted Embedding Power Regression for Large-Scale Out-of-Distribution
Detection [77.1596426383046]
本研究では,学習過程において学習したラベル分布に基づいて,予測されたクラスラベルの確率を計算する手法を開発した。
提案手法は,計算コストの最小化のみで,現在の最先端手法よりも優れた性能を発揮する。
論文 参考訳(メタデータ) (2023-03-07T18:28:39Z) - Certified Interpretability Robustness for Class Activation Mapping [77.58769591550225]
本稿では,解釈可能性マップのためのCORGI(Certifiable prOvable Robustness Guarantees)を提案する。
CORGIは入力画像を取り込み、そのCAM解釈可能性マップのロバスト性に対する証明可能な下限を与えるアルゴリズムである。
交通標識データを用いたケーススタディによるCORGIの有効性を示す。
論文 参考訳(メタデータ) (2023-01-26T18:58:11Z) - Tight Certification of Adversarially Trained Neural Networks via
Nonconvex Low-Rank Semidefinite Relaxations [12.589519278962378]
本稿では,敵対的ネットワークモデルに対する非認証手法を提案する。
非認証は、より高価なSDPメソッドに匹敵する強力な認証を行う一方で、LPメソッドに匹敵する変数の最適化は劇的に少ない。
実験の結果,非認証が正反対のモデルに対するギャップをほぼ完全に埋めていることが判明した。
論文 参考訳(メタデータ) (2022-11-30T18:46:00Z) - Constant Random Perturbations Provide Adversarial Robustness with
Minimal Effect on Accuracy [41.84118016227271]
本稿では,ニューラルネットワークモデルの敵対的ロバスト性を改善するための攻撃非依存(非敵訓練)手法を提案する。
各トレーニング例の周辺に,その地区内のすべての入力に対してラベルが一定に維持されるような地区を作成することを提案する。
提案手法は,バニラ対人訓練と比較してロバスト性を高めつつ,他の防御に対する標準精度を向上させることが示唆された。
論文 参考訳(メタデータ) (2021-03-15T10:44:59Z) - Once-for-All Adversarial Training: In-Situ Tradeoff between Robustness
and Accuracy for Free [115.81899803240758]
敵の訓練とその多くの変種は、ネットワークの堅牢性を大幅に改善するが、標準精度を妥協するコストがかかる。
本稿では,訓練されたモデルをその場で迅速に校正する方法を問うとともに,その標準と堅牢な精度のトレードオフについて検討する。
提案するフレームワークであるOne-for-all Adversarial Training (OAT)は,革新的なモデル条件トレーニングフレームワーク上に構築されている。
論文 参考訳(メタデータ) (2020-10-22T16:06:34Z) - TernaryBERT: Distillation-aware Ultra-low Bit BERT [53.06741585060951]
本稿では,細調整されたBERTモデルの重みを3元化するternaryBERTを提案する。
GLUEベンチマークとSQuADの実験により,提案した TernaryBERT が他のBERT量子化法より優れていることが示された。
論文 参考訳(メタデータ) (2020-09-27T10:17:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。