論文の概要: Boosting Verified Training for Robust Image Classifications via
Abstraction
- arxiv url: http://arxiv.org/abs/2303.11552v1
- Date: Tue, 21 Mar 2023 02:38:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-22 16:48:18.118780
- Title: Boosting Verified Training for Robust Image Classifications via
Abstraction
- Title(参考訳): 抽象化によるロバスト画像分類のための検証訓練の強化
- Authors: Zhaodi Zhang, Zhiyi Xue, Yang Chen, Si Liu, Yueling Zhang, Jing Liu,
Min Zhang
- Abstract要約: 本稿では,ロバストな画像分類器のための新しい,抽象的,認証されたトレーニング手法を提案する。
間隔のトレーニングにより、同じ間隔にマッピングされた全ての摂動画像を同じラベルに分類する。
また,この学習手法により,健全かつ完全なブラックボックス検証手法が実現される。
- 参考スコア(独自算出の注目度): 20.656457368486876
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper proposes a novel, abstraction-based, certified training method for
robust image classifiers. Via abstraction, all perturbed images are mapped into
intervals before feeding into neural networks for training. By training on
intervals, all the perturbed images that are mapped to the same interval are
classified as the same label, rendering the variance of training sets to be
small and the loss landscape of the models to be smooth. Consequently, our
approach significantly improves the robustness of trained models. For the
abstraction, our training method also enables a sound and complete black-box
verification approach, which is orthogonal and scalable to arbitrary types of
neural networks regardless of their sizes and architectures. We evaluate our
method on a wide range of benchmarks in different scales. The experimental
results show that our method outperforms state of the art by (i) reducing the
verified errors of trained models up to 95.64%; (ii) totally achieving up to
602.50x speedup; and (iii) scaling up to larger models with up to 138 million
trainable parameters. The demo is available at
https://github.com/zhangzhaodi233/ABSCERT.git.
- Abstract(参考訳): 本稿では,ロバスト画像分類器のための新しい抽象化ベース認定訓練手法を提案する。
抽象化によって、すべての摂動画像はトレーニングのためにニューラルネットワークに入力する前に間隔にマッピングされる。
間隔のトレーニングにより、同じ間隔にマッピングされた全ての摂動画像は同じラベルに分類され、トレーニングセットのばらつきが小さく、モデルのロスランドスケープが滑らかになる。
その結果,本手法はトレーニングモデルのロバスト性を大幅に向上させる。
この抽象化のために、トレーニング手法は、サイズやアーキテクチャに関わらず任意のタイプのニューラルネットワークに直交し、スケーラブルな、健全で完全なブラックボックス検証アプローチも可能にする。
本手法は,様々なスケールのベンチマークで評価する。
実験の結果,本手法は芸術の状態を上回っていることがわかった。
(i)訓練モデルの検証誤差を95.64%まで低減すること。
(ii)602.50倍のスピードアップを達成し、
(iii)最大1億3800万のトレーニング可能なパラメータを持つ大型モデルへのスケールアップ。
デモはhttps://github.com/zhangzhaodi233/abscert.gitで見ることができる。
関連論文リスト
- Data Attribution for Text-to-Image Models by Unlearning Synthesized Images [71.23012718682634]
テキスト・ツー・イメージ・モデルにおけるデータ帰属の目標は、新しい画像の生成に最も影響を与えるトレーニング画像を特定することである。
本稿では,高能率画像の同定を効果的に行う新しい手法を提案する。
論文 参考訳(メタデータ) (2024-06-13T17:59:44Z) - Pre-Trained Vision-Language Models as Partial Annotators [40.89255396643592]
事前学習された視覚言語モデルは、画像と自然言語の統一表現をモデル化するために大量のデータを学習する。
本稿では,事前学習型モデルアプリケーションのための「事前学習型-弱教師付き学習」パラダイムについて検討し,画像分類タスクの実験を行う。
論文 参考訳(メタデータ) (2024-05-23T17:17:27Z) - Efficient Denoising using Score Embedding in Score-based Diffusion Models [0.24578723416255752]
本稿では,スコアベース拡散モデルの学習効率を向上させることを提案する。
対数密度Fokker-Planck(FP)方程式を数値的に解くことでこれを実現できる。
事前に計算されたスコアを画像に埋め込んで、ワッサースタイン距離でのトレーニングを高速化する。
論文 参考訳(メタデータ) (2024-04-10T00:05:55Z) - FreeSeg-Diff: Training-Free Open-Vocabulary Segmentation with Diffusion Models [56.71672127740099]
我々は,閉鎖語彙データセットのトレーニングモデルによって伝統的に解決されるイメージセグメンテーションの課題に焦点をあてる。
我々は、ゼロショットのオープン語彙セグメンテーションのために、異なる、比較的小さなオープンソース基盤モデルを活用している。
当社のアプローチ(別名FreeSeg-Diff)は、トレーニングに依存しないもので、Pascal VOCとCOCOデータセットの両方で多くのトレーニングベースのアプローチより優れています。
論文 参考訳(メタデータ) (2024-03-29T10:38:25Z) - Flew Over Learning Trap: Learn Unlearnable Samples by Progressive Staged
Training [28.17601195439716]
非学習技術は、公開のためのデータに知覚不可能な摂動を加えることで、学習不可能なサンプルを生成する。
そこで本研究では,未学習サンプルのイメージ特徴と摂動特徴の両方を早期に学習できることを示す。
本研究では,学習摂動機能において,モデルが過度に適合することを効果的に防止する段階訓練を提案する。
論文 参考訳(メタデータ) (2023-06-03T09:36:16Z) - EfficientTrain: Exploring Generalized Curriculum Learning for Training
Visual Backbones [80.662250618795]
本稿では視覚バックボーン(例えば視覚変換器)の効率的なトレーニングのための新しいカリキュラム学習手法を提案する。
オフザシェルフ方式として、様々な人気モデルのウォールタイムトレーニングコストを、精度を犠牲にすることなく、ImageNet-1K/22Kで1.5倍に削減する。
論文 参考訳(メタデータ) (2022-11-17T17:38:55Z) - Scaling Laws For Deep Learning Based Image Reconstruction [26.808569077500128]
トレーニングセットのサイズをスケールアップすることで、大きなパフォーマンス向上が期待できるかどうかを調査する。
初期の急激なパワーロースケーリングは、適度なトレーニングセットサイズですでに大幅に遅くなっています。
我々は、線形推定器の性能を早期に停止勾配降下によって解析的に評価した。
論文 参考訳(メタデータ) (2022-09-27T14:44:57Z) - Meta Internal Learning [88.68276505511922]
単一画像生成のための内部学習は、単一の画像に基づいて新しい画像を生成するようにジェネレータを訓練するフレームワークである。
本稿では,サンプル画像の内部統計をより効果的にモデル化するために,画像集合のトレーニングを可能にするメタラーニング手法を提案する。
以上の結果から, 得られたモデルは, 多数の共通画像アプリケーションにおいて, シングルイメージのGANと同程度に適していることがわかった。
論文 参考訳(メタデータ) (2021-10-06T16:27:38Z) - Fidelity Estimation Improves Noisy-Image Classification with Pretrained
Networks [12.814135905559992]
本稿では,事前学習した分類器に適用可能な手法を提案する。
提案手法では,特徴抽出器の内部表現に融合した忠実度マップの推定値を利用する。
オラクルの忠実度マップを用いた場合, ノイズや復元画像のトレーニングにおいて, 完全に再トレーニングされた手法よりも優れていた。
論文 参考訳(メタデータ) (2021-06-01T17:58:32Z) - Encoding Robustness to Image Style via Adversarial Feature Perturbations [72.81911076841408]
我々は、画像画素ではなく特徴統計を直接摂動することで、頑健なモデルを生成することで、敵の訓練に適応する。
提案手法であるAdvBN(Adversarial Batch Normalization)は,トレーニング中に最悪の機能摂動を発生させる単一ネットワーク層である。
論文 参考訳(メタデータ) (2020-09-18T17:52:34Z) - Learning to Learn Parameterized Classification Networks for Scalable
Input Images [76.44375136492827]
畳み込みニューラルネットワーク(CNN)は、入力解像度の変化に関して予測可能な認識動作を持たない。
我々はメタラーナーを用いて、様々な入力スケールのメインネットワークの畳み込み重みを生成する。
さらに、異なる入力解像度に基づいて、モデル予測よりもフライでの知識蒸留を利用する。
論文 参考訳(メタデータ) (2020-07-13T04:27:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。