論文の概要: Blurs Make Results Clearer: Spatial Smoothings to Improve Accuracy,
Uncertainty, and Robustness
- arxiv url: http://arxiv.org/abs/2105.12639v1
- Date: Wed, 26 May 2021 15:58:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-27 14:18:32.387385
- Title: Blurs Make Results Clearer: Spatial Smoothings to Improve Accuracy,
Uncertainty, and Robustness
- Title(参考訳): ブラーの精度、不確実性、ロバスト性を改善するための空間平滑化
- Authors: Namuk Park, Songkuk Kim
- Abstract要約: ベイズニューラルネットワーク(BNN)は不確実性推定とロバストネスの分野で成功している。
本稿では,CNNの近傍特徴写像点をアンサンブルする空間平滑化手法を提案する。
モデルにいくつかのぼやけた層を追加することで、空間的滑らか化がBNNの正確性、不確実性、堅牢性を改善することを実証的に示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Bayesian neural networks (BNNs) have shown success in the areas of
uncertainty estimation and robustness. However, a crucial challenge prohibits
their use in practice: Bayesian NNs require a large number of predictions to
produce reliable results, leading to a significant increase in computational
cost. To alleviate this issue, we propose spatial smoothing, a method that
ensembles neighboring feature map points of CNNs. By simply adding a few blur
layers to the models, we empirically show that the spatial smoothing improves
accuracy, uncertainty estimation, and robustness of BNNs across a whole range
of ensemble sizes. In particular, BNNs incorporating the spatial smoothing
achieve high predictive performance merely with a handful of ensembles.
Moreover, this method also can be applied to canonical deterministic neural
networks to improve the performances. A number of evidences suggest that the
improvements can be attributed to the smoothing and flattening of the loss
landscape. In addition, we provide a fundamental explanation for prior works -
namely, global average pooling, pre-activation, and ReLU6 - by addressing to
them as special cases of the spatial smoothing. These not only enhance
accuracy, but also improve uncertainty estimation and robustness by making the
loss landscape smoother in the same manner as the spatial smoothing. The code
is available at https://github.com/xxxnell/spatial-smoothing.
- Abstract(参考訳): ベイズニューラルネットワーク(BNN)は不確実性推定とロバストネスの分野で成功している。
ベイジアンNNは信頼性の高い結果を生成するために大量の予測を必要とするため、計算コストが大幅に増加する。
この問題を軽減するために,CNNの隣接する特徴写像点をアンサンブルする空間平滑化法を提案する。
モデルにいくつかのぼやけ層を追加することによって、空間平滑化は、アンサンブルサイズ全体のbnnの精度、不確実性推定、ロバスト性を向上させることを実証的に示す。
特に,空間平滑化を取り入れたBNNは,少数のアンサンブルだけで高い予測性能を実現する。
さらに、この手法は標準決定論的ニューラルネットワークにも適用でき、性能を向上させることができる。
多くの証拠は、この改善が損失景観の平ら化と平ら化に起因することを示唆している。
さらに, 空間平滑化の特別な場合として, 先行作品, グローバル平均プーリング, プリアクティベーション, および relu6 について, 基本的な説明を与える。
これらは精度を向上させるだけでなく、空間平滑化と同じ方法でロスランドスケープを滑らかにすることで不確実性推定とロバスト性を向上させる。
コードはhttps://github.com/xxxnell/spatial-smoothing.comで入手できる。
関連論文リスト
- ZOBNN: Zero-Overhead Dependable Design of Binary Neural Networks with Deliberately Quantized Parameters [0.0]
本稿では,低精度ニューラルネットワークの3番目の利点として,耐故障性の改善について紹介する。
本稿では,メモリ障害がBNN(State-of-the-art binary neural network)に与える影響を包括的解析により検討する。
本稿では,新しい均一量子化手法により,フロートパラメータの範囲を制限することにより,BNNの信頼性を向上させる手法を提案する。
論文 参考訳(メタデータ) (2024-07-06T05:31:11Z) - Achieving Constraints in Neural Networks: A Stochastic Augmented
Lagrangian Approach [49.1574468325115]
DNN(Deep Neural Networks)の正規化は、一般化性の向上とオーバーフィッティングの防止に不可欠である。
制約付き最適化問題としてトレーニングプロセスのフレーミングによるDNN正規化に対する新しいアプローチを提案する。
我々はAugmented Lagrangian (SAL) 法を用いて、より柔軟で効率的な正規化機構を実現する。
論文 参考訳(メタデータ) (2023-10-25T13:55:35Z) - UPNet: Uncertainty-based Picking Deep Learning Network for Robust First Break Picking [6.380128763476294]
第一破砕(FB)ピッキングは地下速度モデルの決定において重要な側面である。
この処理を高速化するために、ディープニューラルネットワーク(DNN)が提案されている。
本稿では、FB選択タスクに不確実性定量化を導入し、UPNetと呼ばれる新しい不確実性に基づくディープラーニングネットワークを提案する。
論文 参考訳(メタデータ) (2023-05-23T08:13:09Z) - Bridging Precision and Confidence: A Train-Time Loss for Calibrating
Object Detection [58.789823426981044]
本稿では,境界ボックスのクラス信頼度を予測精度に合わせることを目的とした,新たな補助損失定式化を提案する。
その結果,列車の走行時間損失はキャリブレーション基準を超過し,キャリブレーション誤差を低減させることがわかった。
論文 参考訳(メタデータ) (2023-03-25T08:56:21Z) - Adaptive Self-supervision Algorithms for Physics-informed Neural
Networks [59.822151945132525]
物理情報ニューラルネットワーク(PINN)は、損失関数のソフト制約として問題領域からの物理的知識を取り入れている。
これらのモデルの訓練性に及ぼす座標点の位置の影響について検討した。
モデルがより高い誤りを犯している領域に対して、より多くのコロケーションポイントを段階的に割り当てる適応的コロケーション方式を提案する。
論文 参考訳(メタデータ) (2022-07-08T18:17:06Z) - A Simple Approach to Improve Single-Model Deep Uncertainty via
Distance-Awareness [33.09831377640498]
本研究では,1つの決定論的表現に基づく1つのネットワークの不確実性向上手法について検討する。
本稿では,現代のDNNにおける距離認識能力を向上させる簡易な手法として,スペクトル正規化ニューラルガウス過程(SNGP)を提案する。
ビジョンと言語理解のベンチマークスイートでは、SNGPは予測、キャリブレーション、ドメイン外検出において、他の単一モデルアプローチよりも優れている。
論文 参考訳(メタデータ) (2022-05-01T05:46:13Z) - Rethinking Feature Uncertainty in Stochastic Neural Networks for
Adversarial Robustness [12.330036598899218]
ニューラルネットワーク(SNN)というランダム性手法が最近提案されている。
MFDV-SNNは既存の手法よりも大幅に改善され、モデルロバスト性を改善するための単純だが効果的な手法であることが示されている。
論文 参考訳(メタデータ) (2022-01-01T08:46:06Z) - DEBOSH: Deep Bayesian Shape Optimization [48.80431740983095]
形状最適化に適した不確実性に基づく新しい手法を提案する。
効果的なBOを可能にし、その結果の形状の質を最先端のアプローチを超えて向上させる。
論文 参考訳(メタデータ) (2021-09-28T11:01:42Z) - Uncertainty-Aware Deep Calibrated Salient Object Detection [74.58153220370527]
既存のディープニューラルネットワークに基づくサルエントオブジェクト検出(SOD)手法は主に高いネットワーク精度の追求に重点を置いている。
これらの手法は、信頼不均衡問題として知られるネットワーク精度と予測信頼の間のギャップを見落としている。
我々は,不確実性を考慮した深部SODネットワークを導入し,深部SODネットワークの過信を防止するための2つの戦略を提案する。
論文 参考訳(メタデータ) (2020-12-10T23:28:36Z) - Widening and Squeezing: Towards Accurate and Efficient QNNs [125.172220129257]
量子化ニューラルネットワーク(QNN)は、非常に安価な計算とストレージオーバーヘッドのため、業界にとって非常に魅力的なものだが、その性能は、完全な精度パラメータを持つネットワークよりも悪い。
既存の手法の多くは、より効果的なトレーニング技術を利用して、特にバイナリニューラルネットワークの性能を高めることを目的としている。
本稿では,従来の完全精度ネットワークで高次元量子化機能に特徴を投影することで,この問題に対処する。
論文 参考訳(メタデータ) (2020-02-03T04:11:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。