論文の概要: CEB Improves Model Robustness
- arxiv url: http://arxiv.org/abs/2002.05380v1
- Date: Thu, 13 Feb 2020 07:49:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-01 09:53:49.803017
- Title: CEB Improves Model Robustness
- Title(参考訳): CEBがモデルロバストネスを改善
- Authors: Ian Fischer and Alexander A. Alemi
- Abstract要約: 条件付きエントロピーボトルネック(CEB)はモデルロバスト性を改善することができる。
CIFAR-10と ImageNet-C Common Corruptions Benchmark, ImageNet-A, PGD 攻撃に対する大規模対向ロバストネス調査の結果を報告する。
- 参考スコア(独自算出の注目度): 88.53125139292435
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We demonstrate that the Conditional Entropy Bottleneck (CEB) can improve
model robustness. CEB is an easy strategy to implement and works in tandem with
data augmentation procedures. We report results of a large scale adversarial
robustness study on CIFAR-10, as well as the ImageNet-C Common Corruptions
Benchmark, ImageNet-A, and PGD attacks.
- Abstract(参考訳): 本研究では,条件付きエントロピーボトルネック(CEB)がモデルロバスト性を向上させることを示す。
CEBは実装が容易な戦略であり、データ拡張手順と連動して動作する。
本稿は,cifar-10とimagenet-c common corruptions benchmark, imagenet-a, pgd攻撃に関する大規模対向ロバストネス調査の結果を報告する。
関連論文リスト
- Benchmarking and Improving Bird's Eye View Perception Robustness in Autonomous Driving [55.93813178692077]
本稿では,BEVアルゴリズムのレジリエンスを評価するためのベンチマークスイートであるRoboBEVを紹介する。
検出,マップセグメンテーション,深さ推定,占有予測といったタスクにまたがる33の最先端のBEVベースの知覚モデルを評価する。
また, 事前学習や深度自由なBEVトランスフォーメーションなどの戦略が, アウト・オブ・ディストリビューションデータに対するロバスト性を高める上で有効であることを示す。
論文 参考訳(メタデータ) (2024-05-27T17:59:39Z) - Exploiting Self-Supervised Constraints in Image Super-Resolution [72.35265021054471]
本稿では,SSC-SRと呼ばれる単一画像超解像のための新しい自己監督制約を提案する。
SSC-SRは、安定性を高めるために指数移動平均によって更新された二重非対称パラダイムとターゲットモデルを用いることで、画像の複雑さのばらつきに一意に対処する。
SSC-SRフレームワークはさまざまなベンチマークデータセットに対して,EDSR平均0.1dB,SwinIR平均0.06dBの大幅な拡張を実現している。
論文 参考訳(メタデータ) (2024-03-30T06:18:50Z) - Benchmarking Zero-Shot Robustness of Multimodal Foundation Models: A Pilot Study [61.65123150513683]
CLIPのようなマルチモーダル基盤モデルは、最先端のゼロショット結果を生成する。
これらのモデルは、ImageNetでトレーニングされた教師付きモデルのパフォーマンスを一致させることで、ロバスト性ギャップを埋めることが報告されている。
CLIPは、ベンチマーク上の教師付きImageNetモデルと比較して、かなりの堅牢性低下をもたらすことを示す。
論文 参考訳(メタデータ) (2024-03-15T17:33:49Z) - Understanding the Vulnerability of CLIP to Image Compression [26.536819387473482]
CLIPは圧縮条件下での画像品質の変化に対して脆弱であることを示す。
我々はCIFAR-10とSTL-10でこの脆弱性を広範囲に評価した。
論文 参考訳(メタデータ) (2023-11-23T14:33:53Z) - Co-training and Co-distillation for Quality Improvement and Compression
of Language Models [88.94539115180919]
知識蒸留(KD)は、知識をより小さなモデルに伝達することで、高価な事前訓練言語モデル(PLM)を圧縮する。
ほとんどの小型モデルはオリジナルの大型モデルの性能を上回ることができず、推論速度を改善するために性能を犠牲にする結果となった。
本稿では,2つのモデルを協調学習することで,性能と推論速度を共に向上する新しいフレームワークであるCTCDを提案する。
論文 参考訳(メタデータ) (2023-11-06T03:29:00Z) - A Survey on the Robustness of Computer Vision Models against Common Corruptions [3.6486148851646063]
コンピュータビジョンモデルは、センサーエラーや極端な撮像環境に起因する入力画像の変化に影響を受けやすい。
これらの破損は、現実のシナリオにデプロイする際のモデルの信頼性を著しく損なう可能性がある。
本稿では,コンピュータビジョンモデルの汎用汚職に対する堅牢性を改善する手法について概観する。
論文 参考訳(メタデータ) (2023-05-10T10:19:31Z) - Fourier-Based Augmentations for Improved Robustness and Uncertainty
Calibration [6.316693022958222]
AugMixフレームワークは、特定の分散シフトを効果的にターゲットするように調整できる。
我々は、AugMixフレームワークが特定の分散シフトを効果的にターゲットするように調整できることを実証した。
論文 参考訳(メタデータ) (2022-02-24T23:09:59Z) - Improving Unsupervised Image Clustering With Robust Learning [21.164537402069712]
監督されていない画像クラスタリングメソッドは、しばしば間接的にモデルを訓練するための代替目標を導入し、誤った予測と過剰な結果の影響を受けます。
本研究は,ロバスト学習に触発された革新的なモデル ruc を提案する。
実験結果から,提案モデルではキャリブレーションの精度が向上し,対向雑音に対するさらなる頑健性が得られることがわかった。
論文 参考訳(メタデータ) (2020-12-21T07:02:11Z) - Boosting Adversarial Training with Hypersphere Embedding [53.75693100495097]
敵対的訓練は、ディープラーニングモデルに対する敵対的攻撃に対する最も効果的な防御の1つである。
本研究では,超球埋め込み機構をATプロシージャに組み込むことを提唱する。
我々は,CIFAR-10 と ImageNet データセットに対する幅広い敵対攻撃の下で本手法を検証した。
論文 参考訳(メタデータ) (2020-02-20T08:42:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。