論文の概要: Misclassification-Aware Gaussian Smoothing improves Robustness against
Domain Shifts
- arxiv url: http://arxiv.org/abs/2104.01231v1
- Date: Fri, 2 Apr 2021 20:25:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-08 04:50:40.826361
- Title: Misclassification-Aware Gaussian Smoothing improves Robustness against
Domain Shifts
- Title(参考訳): ドメインシフトに対するロバスト性を改善する誤分類認識ガウス平滑化
- Authors: Athanasios Tsiligkaridis, Theodoros Tsiligkaridis
- Abstract要約: 深層ニューラルネットワークは、列車とテスト分布が一致すると高い予測精度を達成する。
さまざまなタイプの汚職がこの設定から逸脱し、パフォーマンスが大幅に低下する可能性がある。
本稿では,画像分類器の様々な汚損に対する堅牢性を改善するために,誤分類対応ガウススムースメント手法を提案する。
- 参考スコア(独自算出の注目度): 2.4366811507669115
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep neural networks achieve high prediction accuracy when the train and test
distributions coincide. However, in practice various types of corruptions can
deviate from this setup and performance can be heavily degraded. There have
been only a few methods to address generalization in presence of unexpected
domain shifts observed during deployment. In this paper, a
misclassification-aware Gaussian smoothing approach is presented to improve the
robustness of image classifiers against a variety of corruptions while
maintaining clean accuracy. The intuition behind our proposed
misclassification-aware objective is revealed through bounds on the local loss
deviation in the small-noise regime. When our method is coupled with additional
data augmentations, it is empirically shown to improve upon the
state-of-the-art in robustness and uncertainty calibration on several image
classification tasks.
- Abstract(参考訳): 深層ニューラルネットワークは、列車とテスト分布が一致すると高い予測精度を達成する。
しかし、実際には様々な種類の汚職がこの設定から逸脱し、性能が著しく低下する可能性がある。
デプロイ中に予期せぬドメインシフトが存在する場合に、一般化に対処する方法はごくわずかである。
本稿では, 画像分類器の様々な汚損に対する堅牢性を向上させるために, クリーンな精度を維持しつつ, 誤分類対応のガウス平滑化手法を提案する。
提案する誤分類認識目標の背後にある直観は,小雑音体制における局所的損失偏差の限界を通して明らかにされる。
本手法と付加的なデータ拡張を組み合わせると,いくつかの画像分類タスクにおけるロバスト性および不確かさのキャリブレーションを改善することが実証的に示されている。
関連論文リスト
- Stable Neighbor Denoising for Source-free Domain Adaptive Segmentation [91.83820250747935]
擬似ラベルノイズは主に不安定なサンプルに含まれており、ほとんどのピクセルの予測は自己学習中に大きく変化する。
我々は, 安定・不安定な試料を効果的に発見する, SND(Stable Neighbor Denoising)アプローチを導入する。
SNDは、様々なSFUDAセマンティックセグメンテーション設定における最先端メソッドよりも一貫して優れている。
論文 参考訳(メタデータ) (2024-06-10T21:44:52Z) - Heteroscedastic Uncertainty Estimation Framework for Unsupervised Registration [32.081258147692395]
本稿では,異種画像の不確実性推定のためのフレームワークを提案する。
教師なし登録時の不確実性の高い領域の影響を適応的に低減することができる。
提案手法は, ベースラインを常に上回り, 有意な不確実性推定を導出する。
論文 参考訳(メタデータ) (2023-12-01T01:03:06Z) - Exploiting Frequency Spectrum of Adversarial Images for General
Robustness [3.480626767752489]
相成分に重点を置いた逆行訓練は、クリーン、逆行、および一般的な汚職精度のモデル性能を著しく向上させる。
そこで本稿では, 周波数ベースデータ拡張手法であるAdversarial Amplitude Swapを提案し, クリーン画像と逆画像の振幅スペクトルを交換する。
これらの画像は、敵画像の代用として機能し、様々な敵訓練設定で実装することができる。
論文 参考訳(メタデータ) (2023-05-15T08:36:32Z) - Confidence-aware Training of Smoothed Classifiers for Certified
Robustness [75.95332266383417]
我々は「ガウス雑音下での精度」を、入力に対する対角的ロバスト性の容易に計算可能なプロキシとして利用する。
実験の結果, 提案手法は, 最先端の訓練手法による信頼性向上を継続的に示すことがわかった。
論文 参考訳(メタデータ) (2022-12-18T03:57:12Z) - Soft Diffusion: Score Matching for General Corruptions [84.26037497404195]
我々は,任意の線形汚職過程のスコア関数を確実に学習するSoft Score Matchingと呼ばれる新しい目的を提案する。
本研究の目的は, 汚職過程の家族に対して, 適正な規則性条件下での確率の勾配を学習することである。
提案手法はCelebA-64上でのFIDスコアを1.85ドルで達成し,従来の線形拡散モデルよりも優れていた。
論文 参考訳(メタデータ) (2022-09-12T17:45:03Z) - Guided Diffusion Model for Adversarial Purification [103.4596751105955]
敵攻撃は、様々なアルゴリズムやフレームワークでディープニューラルネットワーク(DNN)を妨害する。
本稿では,GDMP ( Guided diffusion model for purification) と呼ばれる新しい精製法を提案する。
様々なデータセットにわたる包括的実験において,提案したGDMPは,敵対的攻撃によって引き起こされた摂動を浅い範囲に減少させることを示した。
論文 参考訳(メタデータ) (2022-05-30T10:11:15Z) - Improving robustness against common corruptions with frequency biased
models [112.65717928060195]
目に見えない画像の腐敗は 驚くほど大きなパフォーマンス低下を引き起こします
画像の破損タイプは周波数スペクトルで異なる特性を持ち、ターゲットタイプのデータ拡張の恩恵を受けます。
畳み込み特徴マップの総変動(TV)を最小限に抑え、高周波堅牢性を高める新しい正規化方式を提案する。
論文 参考訳(メタデータ) (2021-03-30T10:44:50Z) - Deep Gaussian Denoiser Epistemic Uncertainty and Decoupled
Dual-Attention Fusion [11.085432358616671]
我々は,最先端手法の性能限界をガウス雑音化に推進することに注力する。
本研究では, 1つの事前訓練ネットワークのみを用いて, 骨粗さを低減するモデル非依存アプローチを提案する。
その結果,最先端のベースラインや様々なノイズレベルに対して有意に改善した。
論文 参考訳(メタデータ) (2021-01-12T17:38:32Z) - Consistency Regularization for Certified Robustness of Smoothed
Classifiers [89.72878906950208]
最近のランダムな平滑化技術は、最悪の$ell$-robustnessを平均ケースのロバストネスに変換することができることを示している。
その結果,スムーズな分類器の精度と信頼性の高いロバスト性とのトレードオフは,ノイズに対する予測一貫性の規則化によって大きく制御できることが判明した。
論文 参考訳(メタデータ) (2020-06-07T06:57:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。