論文の概要: CEB Improves Model Robustness
- arxiv url: http://arxiv.org/abs/2002.05380v1
- Date: Thu, 13 Feb 2020 07:49:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-01 09:53:49.803017
- Title: CEB Improves Model Robustness
- Title(参考訳): CEBがモデルロバストネスを改善
- Authors: Ian Fischer and Alexander A. Alemi
- Abstract要約: 条件付きエントロピーボトルネック(CEB)はモデルロバスト性を改善することができる。
CIFAR-10と ImageNet-C Common Corruptions Benchmark, ImageNet-A, PGD 攻撃に対する大規模対向ロバストネス調査の結果を報告する。
- 参考スコア(独自算出の注目度): 88.53125139292435
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We demonstrate that the Conditional Entropy Bottleneck (CEB) can improve
model robustness. CEB is an easy strategy to implement and works in tandem with
data augmentation procedures. We report results of a large scale adversarial
robustness study on CIFAR-10, as well as the ImageNet-C Common Corruptions
Benchmark, ImageNet-A, and PGD attacks.
- Abstract(参考訳): 本研究では,条件付きエントロピーボトルネック(CEB)がモデルロバスト性を向上させることを示す。
CEBは実装が容易な戦略であり、データ拡張手順と連動して動作する。
本稿は,cifar-10とimagenet-c common corruptions benchmark, imagenet-a, pgd攻撃に関する大規模対向ロバストネス調査の結果を報告する。
関連論文リスト
- Adversarial Fine-tuning of Compressed Neural Networks for Joint Improvement of Robustness and Efficiency [3.3490724063380215]
アドリラルトレーニングは、より堅牢なモデルをもたらすことができる緩和戦略として提示されている。
本稿では,2つの異なるモデル圧縮手法(構造的重み打ち法と量子化法)が対向ロバスト性に及ぼす影響について検討する。
本研究では, 圧縮モデルの逆方向微調整により, 対向訓練モデルに匹敵する強靭性性能が得られることを示す。
論文 参考訳(メタデータ) (2024-03-14T14:34:25Z) - Understanding the Vulnerability of CLIP to Image Compression [26.536819387473482]
CLIPは圧縮条件下での画像品質の変化に対して脆弱であることを示す。
我々はCIFAR-10とSTL-10でこの脆弱性を広範囲に評価した。
論文 参考訳(メタデータ) (2023-11-23T14:33:53Z) - Co-training and Co-distillation for Quality Improvement and Compression
of Language Models [88.94539115180919]
知識蒸留(KD)は、知識をより小さなモデルに伝達することで、高価な事前訓練言語モデル(PLM)を圧縮する。
ほとんどの小型モデルはオリジナルの大型モデルの性能を上回ることができず、推論速度を改善するために性能を犠牲にする結果となった。
本稿では,2つのモデルを協調学習することで,性能と推論速度を共に向上する新しいフレームワークであるCTCDを提案する。
論文 参考訳(メタデータ) (2023-11-06T03:29:00Z) - A Survey on the Robustness of Computer Vision Models against Common
Corruptions [3.9858496473361402]
本稿では,コンピュータビジョンモデルの汎用汚職に対する堅牢性を改善する手法について概観する。
いくつかのデータセットでロバスト性のパフォーマンスを比較するために、統一ベンチマークフレームワークをリリースしました。
論文 参考訳(メタデータ) (2023-05-10T10:19:31Z) - Revisiting Adversarial Training for ImageNet: Architectures, Training
and Generalization across Threat Models [52.86163536826919]
我々は、ViTsとConvNeXtsを比較したImageNetの敵対的トレーニングを再考する。
修正されたConvNeXt, ConvNeXt + ConvStemは、モデルパラメータの異なる範囲にまたがる最も堅牢な一般化をもたらす。
我々の ViT + ConvStem は、目に見えない脅威モデルに最高の一般化をもたらす。
論文 参考訳(メタデータ) (2023-03-03T11:53:01Z) - CARBEN: Composite Adversarial Robustness Benchmark [70.05004034081377]
本稿では,複合対向攻撃 (CAA) が画像に与える影響を実証する。
異なるモデルのリアルタイム推論を提供し、攻撃レベルのパラメータの設定を容易にする。
CAAに対する敵対的堅牢性を評価するためのリーダーボードも導入されている。
論文 参考訳(メタデータ) (2022-07-16T01:08:44Z) - Fourier-Based Augmentations for Improved Robustness and Uncertainty
Calibration [6.316693022958222]
AugMixフレームワークは、特定の分散シフトを効果的にターゲットするように調整できる。
我々は、AugMixフレームワークが特定の分散シフトを効果的にターゲットするように調整できることを実証した。
論文 参考訳(メタデータ) (2022-02-24T23:09:59Z) - Sample-Efficient Reinforcement Learning via Conservative Model-Based
Actor-Critic [67.00475077281212]
モデルベース強化学習アルゴリズムは、モデルフリーのアルゴリズムよりもサンプル効率が高い。
本稿では,精度の高い学習モデルに強く依存することなく,高いサンプル効率を実現する新しい手法を提案する。
CMBACは,いくつかの課題に対して,サンプル効率の点で最先端のアプローチを著しく上回ることを示す。
論文 参考訳(メタデータ) (2021-12-16T15:33:11Z) - Improving Unsupervised Image Clustering With Robust Learning [21.164537402069712]
監督されていない画像クラスタリングメソッドは、しばしば間接的にモデルを訓練するための代替目標を導入し、誤った予測と過剰な結果の影響を受けます。
本研究は,ロバスト学習に触発された革新的なモデル ruc を提案する。
実験結果から,提案モデルではキャリブレーションの精度が向上し,対向雑音に対するさらなる頑健性が得られることがわかった。
論文 参考訳(メタデータ) (2020-12-21T07:02:11Z) - Boosting Adversarial Training with Hypersphere Embedding [53.75693100495097]
敵対的訓練は、ディープラーニングモデルに対する敵対的攻撃に対する最も効果的な防御の1つである。
本研究では,超球埋め込み機構をATプロシージャに組み込むことを提唱する。
我々は,CIFAR-10 と ImageNet データセットに対する幅広い敵対攻撃の下で本手法を検証した。
論文 参考訳(メタデータ) (2020-02-20T08:42:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。