論文の概要: CTBENCH: A Library and Benchmark for Certified Training
- arxiv url: http://arxiv.org/abs/2406.04848v1
- Date: Fri, 7 Jun 2024 11:27:18 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-10 14:20:58.745294
- Title: CTBENCH: A Library and Benchmark for Certified Training
- Title(参考訳): CTBENCH: 認定トレーニングのためのライブラリとベンチマーク
- Authors: Yuhao Mao, Stefan Balauca, Martin Vechev,
- Abstract要約: 認定トレーニングのための高品質なベンチマークであるCTBENCHを紹介する。
CTBENCHのほぼ全てのアルゴリズムが、文学における報告された性能を上回っていることを示す。
- 参考スコア(独自算出の注目度): 2.4829062265865764
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Training certifiably robust neural networks is an important but challenging task. While many algorithms for (deterministic) certified training have been proposed, they are often evaluated on different training schedules, certification methods, and systematically under-tuned hyperparameters, making it difficult to compare their performance. To address this challenge, we introduce CTBENCH, a unified library and a high-quality benchmark for certified training that evaluates all algorithms under fair settings and systematically tuned hyperparameters. We show that (1) almost all algorithms in CTBENCH surpass the corresponding reported performance in literature in the magnitude of algorithmic improvements, thus establishing new state-of-the-art, and (2) the claimed advantage of recent algorithms drops significantly when we enhance the outdated baselines with a fair training schedule, a fair certification method and well-tuned hyperparameters. Based on CTBENCH, we provide new insights into the current state of certified training and suggest future research directions. We are confident that CTBENCH will serve as a benchmark and testbed for future research in certified training.
- Abstract(参考訳): 確実に堅牢なニューラルネットワークのトレーニングは重要だが、難しい課題だ。
多くの(決定論的)認定トレーニングのためのアルゴリズムが提案されているが、異なるトレーニングスケジュール、認定方法、体系的に過度に調整されたハイパーパラメータで評価されることが多く、性能の比較が困難である。
この課題に対処するために、我々はCTBENCHを導入し、統一ライブラリと認定トレーニングのための高品質なベンチマークを導入し、全てのアルゴリズムを公平な設定で評価し、体系的にハイパーパラメータを調整した。
CTBENCHのほぼ全てのアルゴリズムが,アルゴリズム改良の規模で文献に報告された性能を上回り,新たな最先端のアルゴリズムを確立すること,そして(2)公正なトレーニングスケジュール,公正な認証方法,そして十分に調整されたハイパーパラメータで,時代遅れのベースラインを強化する際に,最近のアルゴリズムの主張する利点は著しく低下することを示す。
CTBENCHに基づき、認定訓練の現状に関する新たな知見を提供し、今後の研究方向性を提案する。
CTBENCHがベンチマークとして機能し、将来の認定トレーニング研究のためのテストベッドになると確信しています。
関連論文リスト
- The Surprising Effectiveness of Test-Time Training for Abstract Reasoning [64.36534512742736]
モデル推論能力向上のためのメカニズムとして,テストタイムトレーニング(TTT)の有効性を検討する。
TTTはARCタスクのパフォーマンスを大幅に改善し、ベースとなる微調整モデルと比較して最大6倍の精度向上を実現した。
本研究は,ニューラルネットワークモデルにおける抽象的推論改善の道筋として,明示的な記号探索が唯一の道ではないことを示唆している。
論文 参考訳(メタデータ) (2024-11-11T18:59:45Z) - Adaptive Hierarchical Certification for Segmentation using Randomized Smoothing [87.48628403354351]
機械学習の認証は、特定の条件下では、敵対的なサンプルが特定の範囲内でモデルを回避できないことを証明している。
セグメンテーションの一般的な認証方法は、平らな粒度のクラスを使い、モデルの不確実性による高い断続率をもたらす。
本稿では,複数レベルの階層内で画素を認証し,不安定なコンポーネントに対して粗いレベルに適応的に認証を緩和する,新しい,より実用的な設定を提案する。
論文 参考訳(メタデータ) (2024-02-13T11:59:43Z) - Adaptive Certified Training: Towards Better Accuracy-Robustness
Tradeoffs [17.46692880231195]
本稿では,適応型認定ラジイを用いたトレーニングがモデルの精度と堅牢性の向上に役立つというキーインサイトに基づく,新しい認定トレーニング手法を提案する。
提案手法の有効性を,MNIST,CIFAR-10,TinyImageNetデータセットに示す。
論文 参考訳(メタデータ) (2023-07-24T18:59:46Z) - Tight Certification of Adversarially Trained Neural Networks via
Nonconvex Low-Rank Semidefinite Relaxations [12.589519278962378]
本稿では,敵対的ネットワークモデルに対する非認証手法を提案する。
非認証は、より高価なSDPメソッドに匹敵する強力な認証を行う一方で、LPメソッドに匹敵する変数の最適化は劇的に少ない。
実験の結果,非認証が正反対のモデルに対するギャップをほぼ完全に埋めていることが判明した。
論文 参考訳(メタデータ) (2022-11-30T18:46:00Z) - A Stable, Fast, and Fully Automatic Learning Algorithm for Predictive
Coding Networks [65.34977803841007]
予測符号化ネットワークは、ベイズ統計学と神経科学の両方にルーツを持つ神経科学にインスパイアされたモデルである。
シナプス重みに対する更新規則の時間的スケジュールを変更するだけで、元の規則よりもずっと効率的で安定したアルゴリズムが得られることを示す。
論文 参考訳(メタデータ) (2022-11-16T00:11:04Z) - Accelerating Certified Robustness Training via Knowledge Transfer [3.5934248574481717]
本稿では,知識伝達による頑健な学習手法の計算オーバーヘッドを低減するためのフレームワークを提案する。
CIFAR-10の実験により、CRTは3つの異なるアーキテクチャ世代で平均8倍のロバストネストレーニングを高速化した。
論文 参考訳(メタデータ) (2022-10-25T19:12:28Z) - Smooth-Reduce: Leveraging Patches for Improved Certified Robustness [100.28947222215463]
本研究では,Smooth-Reduce の学習自由な修正スムース化手法を提案する。
提案アルゴリズムは,入力画像から抽出した重なり合うパッチを分類し,予測ロジットを集約して,入力周辺の半径が大きいことを証明する。
我々は,このような証明書の理論的保証を提供し,他のランダムな平滑化手法に対する顕著な改善を実証的に示す。
論文 参考訳(メタデータ) (2022-05-12T15:26:20Z) - An Automated Knowledge Mining and Document Classification System with
Multi-model Transfer Learning [1.1852751647387592]
サービスマニュアル文書は、サービスエンジニアにガイドラインと知識を提供するため、エンジニアリング会社にとって不可欠である。
本稿では,新しい多モデル移動学習手法を用いた知識マイニングと文書分類システムを提案する。
論文 参考訳(メタデータ) (2021-06-24T03:03:46Z) - Fast Certified Robust Training via Better Initialization and Shorter
Warmup [95.81628508228623]
我々は,新しいIPPと原理正規化器を提案し,認証境界を安定化させる。
バッチ正規化(BN)は、認定トレーニングのための最高のパフォーマンスのネットワークを構築するための重要なアーキテクチャ要素です。
論文 参考訳(メタデータ) (2021-03-31T17:58:58Z) - Fast Training of Provably Robust Neural Networks by SingleProp [71.19423596238568]
我々は、既存の認証された防御よりも効率的である新しい正規化器を開発した。
我々は、最先端の認証防御と比較して、訓練速度と同等の認証精度の向上を実証する。
論文 参考訳(メタデータ) (2021-02-01T22:12:51Z) - Regularized Training and Tight Certification for Randomized Smoothed
Classifier with Provable Robustness [15.38718018477333]
我々は新たな正規化リスクを導出し、正規化器はスムーズな手法の精度と堅牢性を適応的に促進することができる。
また、正規化効果を利用して、高い確率で保持されるより厳密なロバスト性の下限を提供する新しい認証アルゴリズムを設計する。
論文 参考訳(メタデータ) (2020-02-17T20:54:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。