論文の概要: Spatial-Temporal-Fusion BNN: Variational Bayesian Feature Layer
- arxiv url: http://arxiv.org/abs/2112.06281v1
- Date: Sun, 12 Dec 2021 17:13:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-14 14:39:40.766211
- Title: Spatial-Temporal-Fusion BNN: Variational Bayesian Feature Layer
- Title(参考訳): 時空間融合BNN:変ベイズ特徴層
- Authors: Shiye Lei, Zhuozhuo Tu, Leszek Rutkowski, Feng Zhou, Li Shen,
Fengxiang He and Dacheng Tao
- Abstract要約: 我々は,BNNを大規模モデルに効率的にスケールするための時空間BNNを設計する。
バニラBNNと比較して,本手法はトレーニング時間とパラメータ数を著しく削減し,BNNのスケールアップに有効である。
- 参考スコア(独自算出の注目度): 77.78479877473899
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Bayesian neural networks (BNNs) have become a principal approach to alleviate
overconfident predictions in deep learning, but they often suffer from scaling
issues due to a large number of distribution parameters. In this paper, we
discover that the first layer of a deep network possesses multiple disparate
optima when solely retrained. This indicates a large posterior variance when
the first layer is altered by a Bayesian layer, which motivates us to design a
spatial-temporal-fusion BNN (STF-BNN) for efficiently scaling BNNs to large
models: (1) first normally train a neural network from scratch to realize fast
training; and (2) the first layer is converted to Bayesian and inferred by
employing stochastic variational inference, while other layers are fixed.
Compared to vanilla BNNs, our approach can greatly reduce the training time and
the number of parameters, which contributes to scale BNNs efficiently. We
further provide theoretical guarantees on the generalizability and the
capability of mitigating overconfidence of STF-BNN. Comprehensive experiments
demonstrate that STF-BNN (1) achieves the state-of-the-art performance on
prediction and uncertainty quantification; (2) significantly improves
adversarial robustness and privacy preservation; and (3) considerably reduces
training time and memory costs.
- Abstract(参考訳): ベイズニューラルネットワーク(BNN)は、ディープラーニングにおける過信予測を緩和する主要なアプローチとなっているが、多くの分布パラメータのために、しばしばスケーリングの問題に悩まされる。
本稿では,深層ネットワークの第1層が,再トレーニングのみを行う場合に,複数の異なるオプティマを有することを明らかにする。
これは,BNNを大規模モデルに効率よく拡張するための空間時間融合BNN(STF-BNN)の設計をモチベーションとするベイズ層によって第1層が変更された場合,大きな後部変異が示され,(1)ニューラルネットワークをスクラッチから訓練して高速トレーニングを実現する,(2)確率的変動推論を用いて第1層がベイズ層に変換され,他の層が固定される,という結果である。
バニラBNNと比較して,本手法はトレーニング時間とパラメータ数を著しく削減し,BNNのスケールアップに有効である。
さらに,stf-bnnの過信を緩和する汎用性と能力に関する理論的保証を提供する。
総合的な実験により,STF-BNN(1)は,予測と不確実性定量化の最先端性能を実現し,(2)敵の堅牢性とプライバシ保護を大幅に改善し,(3)トレーニング時間とメモリコストを大幅に削減することを示した。
関連論文リスト
- Bayesian Neural Networks with Domain Knowledge Priors [52.80929437592308]
ドメイン知識の一般的な形式をBNNに組み込むためのフレームワークを提案する。
提案したドメイン知識を用いたBNNは,標準知識のBNNよりも優れていることを示す。
論文 参考訳(メタデータ) (2024-02-20T22:34:53Z) - Make Me a BNN: A Simple Strategy for Estimating Bayesian Uncertainty
from Pre-trained Models [40.38541033389344]
ディープニューラルネットワーク(Deep Neural Networks, DNN)は、様々なコンピュータビジョンタスクのための強力なツールであるが、信頼性の高い不確実性定量化に苦慮することが多い。
本稿では、DNNをBNNにシームレスに変換するシンプルでスケーラブルな戦略であるAdaptable Bayesian Neural Network (ABNN)を紹介する。
画像分類とセマンティックセグメンテーションタスクのための複数のデータセットにわたる広範囲な実験を行い、ABNNが最先端の性能を達成することを示す。
論文 参考訳(メタデータ) (2023-12-23T16:39:24Z) - Sparsifying Bayesian neural networks with latent binary variables and
normalizing flows [10.865434331546126]
潜伏二元系ベイズニューラルネットワーク(LBBNN)の2つの拡張について検討する。
まず、隠れたユニットを直接サンプリングするためにLRT(Local Reparametrization trick)を用いることで、より計算効率の良いアルゴリズムが得られる。
さらに, LBBNNパラメータの変動後分布の正規化フローを用いて, 平均体ガウス分布よりも柔軟な変動後分布を学習する。
論文 参考訳(メタデータ) (2023-05-05T09:40:28Z) - Recurrent Bilinear Optimization for Binary Neural Networks [58.972212365275595]
BNNは、実数値重みとスケールファクターの内在的双線型関係を無視している。
私たちの仕事は、双線形の観点からBNNを最適化する最初の試みです。
我々は、様々なモデルやデータセット上で最先端のBNNに対して印象的な性能を示す頑健なRBONNを得る。
論文 参考訳(メタデータ) (2022-09-04T06:45:33Z) - Robustness of Bayesian Neural Networks to White-Box Adversarial Attacks [55.531896312724555]
ベイジアンネットワーク(BNN)は、ランダム性を組み込むことで、敵の攻撃を扱うのに頑丈で適している。
我々はベイズ的推論(つまり変分ベイズ)をDenseNetアーキテクチャに融合させることで、BNN-DenseNetと呼ばれるBNNモデルを作成する。
逆向きに訓練されたBNNは、ほとんどの実験で非ベイズ的で逆向きに訓練されたBNNよりも優れています。
論文 参考訳(メタデータ) (2021-11-16T16:14:44Z) - S2-BNN: Bridging the Gap Between Self-Supervised Real and 1-bit Neural
Networks via Guided Distribution Calibration [74.5509794733707]
本研究では, 実数値から, 最終予測分布上のバイナリネットワークへの誘導型学習パラダイムを提案する。
提案手法は,bnn上で5.515%の絶対利得で,単純なコントラスト学習ベースラインを向上できる。
提案手法は、単純なコントラスト学習ベースラインよりも大幅に改善され、多くの主流教師付きBNN手法に匹敵する。
論文 参考訳(メタデータ) (2021-02-17T18:59:28Z) - Going Deeper With Directly-Trained Larger Spiking Neural Networks [20.40894876501739]
スパイキングニューラルネットワーク(SNN)は、バイオユースブルな情報とイベント駆動信号処理のためのコーディングを約束している。
しかし、SNNのユニークな動作モードにより、従来のネットワークよりもトレーニングが困難になる。
CIF依存型バッチ正規化法(tpladBN)を提案する。
論文 参考訳(メタデータ) (2020-10-29T07:15:52Z) - FATNN: Fast and Accurate Ternary Neural Networks [89.07796377047619]
Ternary Neural Networks (TNN) は、完全な精度のニューラルネットワークよりもはるかに高速で、電力効率が高いため、多くの注目を集めている。
そこで本研究では、3次内積の計算複雑性を2。
性能ギャップを軽減するために,実装に依存した3次量子化アルゴリズムを精巧に設計する。
論文 参考訳(メタデータ) (2020-08-12T04:26:18Z) - T2FSNN: Deep Spiking Neural Networks with Time-to-first-spike Coding [26.654533157221973]
本稿では,カーネルベースの動的しきい値とデンドライトを用いて,深層SNNにタイム・ツー・ファースト・スパイク・コーディングを組み込むことによって,その欠点を克服する手法を提案する。
提案手法は,バースト符号化法と比較して,推定遅延とスパイク回数を22%,1%以下に削減できる。
論文 参考訳(メタデータ) (2020-03-26T04:39:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。