論文の概要: Encoding the latent posterior of Bayesian Neural Networks for
uncertainty quantification
- arxiv url: http://arxiv.org/abs/2012.02818v2
- Date: Thu, 25 Mar 2021 12:12:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-22 23:45:58.847527
- Title: Encoding the latent posterior of Bayesian Neural Networks for
uncertainty quantification
- Title(参考訳): 不確実性定量化のためのベイズニューラルネットワークの潜在後部符号化
- Authors: Gianni Franchi, Andrei Bursuc, Emanuel Aldea, Severine Dubuisson,
Isabelle Bloch
- Abstract要約: 我々は,複雑なコンピュータビジョンアーキテクチャに適した効率的な深部BNNを目指している。
可変オートエンコーダ(VAE)を利用して、各ネットワーク層におけるパラメータの相互作用と潜在分布を学習する。
我々のアプローチであるLatent-Posterior BNN(LP-BNN)は、最近のBatchEnsemble法と互換性があり、高い効率(トレーニングとテストの両方における計算とメモリ)のアンサンブルをもたらす。
- 参考スコア(独自算出の注目度): 10.727102755903616
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Bayesian neural networks (BNNs) have been long considered an ideal, yet
unscalable solution for improving the robustness and the predictive uncertainty
of deep neural networks. While they could capture more accurately the posterior
distribution of the network parameters, most BNN approaches are either limited
to small networks or rely on constraining assumptions such as parameter
independence. These drawbacks have enabled prominence of simple, but
computationally heavy approaches such as Deep Ensembles, whose training and
testing costs increase linearly with the number of networks. In this work we
aim for efficient deep BNNs amenable to complex computer vision architectures,
e.g. ResNet50 DeepLabV3+, and tasks, e.g. semantic segmentation, with fewer
assumptions on the parameters. We achieve this by leveraging variational
autoencoders (VAEs) to learn the interaction and the latent distribution of the
parameters at each network layer. Our approach, Latent-Posterior BNN (LP-BNN),
is compatible with the recent BatchEnsemble method, leading to highly efficient
({in terms of computation and} memory during both training and testing)
ensembles. LP-BNN s attain competitive results across multiple metrics in
several challenging benchmarks for image classification, semantic segmentation
and out-of-distribution detection.
- Abstract(参考訳): ベイズニューラルネットワーク(BNN)は、ディープニューラルネットワークの堅牢性と予測の不確実性を改善するために、長年、理想的な、しかしスケールできないソリューションと考えられてきた。
ネットワークパラメータの後方分布をより正確に捉えることができるが、ほとんどのBNNアプローチは小さなネットワークに限定されるか、パラメータ独立のような制約のある仮定に依存している。
これらの欠点により、Deep Ensemblesのような単純だが計算的に重いアプローチが普及し、トレーニングとテストのコストはネットワークの数とともに線形に増加する。
本研究では,複雑なコンピュータビジョンアーキテクチャに適用可能な効率的な深部BNNの実現を目指す。
ResNet50 DeepLabV3+、タスク、例えば。
パラメータの仮定が少ないセマンティックセグメンテーション。
可変オートエンコーダ(VAE)を利用して、各ネットワーク層におけるパラメータの相互作用と潜在分布を学習する。
我々のアプローチであるLatent-Posterior BNN(LP-BNN)は、最近のBatchEnsemble法と互換性があり、高い効率(トレーニングとテストの両方における計算量とメモリ量)のアンサンブルにつながる。
lp-bnn sは、画像分類、意味セグメンテーション、分散検出など、いくつかの困難なベンチマークにおいて、複数のメトリクスで競合結果を得る。
関連論文リスト
- Unveiling the Power of Sparse Neural Networks for Feature Selection [60.50319755984697]
スパースニューラルネットワーク(SNN)は、効率的な特徴選択のための強力なツールとして登場した。
動的スパーストレーニング(DST)アルゴリズムで訓練されたSNNは、平均して50%以上のメモリと55%以上のFLOPを削減できることを示す。
以上の結果から,DSTアルゴリズムで訓練したSNNによる特徴選択は,平均して50ドル以上のメモリと55%のFLOPを削減できることがわかった。
論文 参考訳(メタデータ) (2024-08-08T16:48:33Z) - Bayesian Inference Accelerator for Spiking Neural Networks [3.145754107337963]
スパイキングニューラルネットワーク(SNN)は、計算面積と電力を減らす可能性がある。
本研究では,効率的なベイズSNNをハードウェア上で開発・実装するための最適化フレームワークについて述べる。
我々は、完全精度のベルヌーイパラメータを持つベイジアンバイナリネットワークに匹敵するアキュラ級数を示し、最大25時間分のスパイクを減らした。
論文 参考訳(メタデータ) (2024-01-27T16:27:19Z) - An Automata-Theoretic Approach to Synthesizing Binarized Neural Networks [13.271286153792058]
量子ニューラルネットワーク(QNN)が開発され、二項化ニューラルネットワーク(BNN)は特殊なケースとしてバイナリ値に制限されている。
本稿では,指定された特性を満たすBNNの自動合成手法を提案する。
論文 参考訳(メタデータ) (2023-07-29T06:27:28Z) - Multi-Objective Linear Ensembles for Robust and Sparse Training of Few-Bit Neural Networks [5.246498560938275]
BNN(Binarized Neural Networks)とINN(Neural Networks)を併用した,数ビット離散値ニューラルネットワークの事例について検討する。
コントリビューションは、可能なクラスごとにひとつのNNをトレーニングし、最終的な出力を予測するために多数決方式を適用する、多目的アンサンブルアプローチである。
我々は,このBeMiアプローチを,BNN学習に焦点をあてた問題解決型NNトレーニングと勾配型トレーニングの最先端技術と比較する。
論文 参考訳(メタデータ) (2022-12-07T14:23:43Z) - Quantization-aware Interval Bound Propagation for Training Certifiably
Robust Quantized Neural Networks [58.195261590442406]
我々は、逆向きに頑健な量子化ニューラルネットワーク(QNN)の訓練と証明の課題について検討する。
近年の研究では、浮動小数点ニューラルネットワークが量子化後の敵攻撃に対して脆弱であることが示されている。
本稿では、堅牢なQNNをトレーニングするための新しい方法であるQA-IBP(quantization-aware interval bound propagation)を提案する。
論文 参考訳(メタデータ) (2022-11-29T13:32:38Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - A Mixed Integer Programming Approach for Verifying Properties of
Binarized Neural Networks [44.44006029119672]
BNN検証のための混合整数計画法を提案する。
我々は,MNISTデータセットと航空機衝突回避制御器を用いて訓練したBNNの特性を検証することによって,我々のアプローチを実証する。
論文 参考訳(メタデータ) (2022-03-11T01:11:29Z) - S2-BNN: Bridging the Gap Between Self-Supervised Real and 1-bit Neural
Networks via Guided Distribution Calibration [74.5509794733707]
本研究では, 実数値から, 最終予測分布上のバイナリネットワークへの誘導型学習パラダイムを提案する。
提案手法は,bnn上で5.515%の絶対利得で,単純なコントラスト学習ベースラインを向上できる。
提案手法は、単純なコントラスト学習ベースラインよりも大幅に改善され、多くの主流教師付きBNN手法に匹敵する。
論文 参考訳(メタデータ) (2021-02-17T18:59:28Z) - Widening and Squeezing: Towards Accurate and Efficient QNNs [125.172220129257]
量子化ニューラルネットワーク(QNN)は、非常に安価な計算とストレージオーバーヘッドのため、業界にとって非常に魅力的なものだが、その性能は、完全な精度パラメータを持つネットワークよりも悪い。
既存の手法の多くは、より効果的なトレーニング技術を利用して、特にバイナリニューラルネットワークの性能を高めることを目的としている。
本稿では,従来の完全精度ネットワークで高次元量子化機能に特徴を投影することで,この問題に対処する。
論文 参考訳(メタデータ) (2020-02-03T04:11:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。