論文の概要: A Jensen-Shannon Divergence Based Loss Function for Bayesian Neural
Networks
- arxiv url: http://arxiv.org/abs/2209.11366v1
- Date: Fri, 23 Sep 2022 01:47:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-26 16:58:35.212256
- Title: A Jensen-Shannon Divergence Based Loss Function for Bayesian Neural
Networks
- Title(参考訳): ベイズニューラルネットワークのためのjensen-shannon divergenceに基づく損失関数
- Authors: Ponkrshnan Thiagarajan and Susanta Ghosh
- Abstract要約: 幾何JSの発散に基づくBNNの新たな損失関数を定式化し、従来のKL発散に基づく損失関数が特別な場合であることを示す。
我々は、雑音の多いCIFARデータセットの分類において、最先端KL発散に基づくBNNの性能改善を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Kullback-Leibler (KL) divergence is widely used for variational inference of
Bayesian Neural Networks (BNNs). However, the KL divergence has limitations
such as unboundedness and asymmetry. We examine the Jensen-Shannon (JS)
divergence that is more general, bounded, and symmetric. We formulate a novel
loss function for BNNs based on the geometric JS divergence and show that the
conventional KL divergence-based loss function is its special case. We evaluate
the divergence part of the proposed loss function in a closed form for a
Gaussian prior. For any other general prior, Monte Carlo approximations can be
used. We provide algorithms for implementing both of these cases. We
demonstrate that the proposed loss function offers an additional parameter that
can be tuned to control the degree of regularisation. We derive the conditions
under which the proposed loss function regularises better than the KL
divergence-based loss function for Gaussian priors and posteriors. We
demonstrate performance improvements over the state-of-the-art KL
divergence-based BNN on the classification of a noisy CIFAR data set and a
biased histopathology data set.
- Abstract(参考訳): Kullback-Leibler (KL) はベイズニューラルネットワーク(BNN)の変分推論に広く用いられている。
しかしながら、KL の発散は非有界性や非対称性のような制限を持つ。
より一般的で有界で対称なJensen-Shannon(JS)発散について検討する。
幾何JSの発散に基づくBNNの新しい損失関数を定式化し、従来のKL発散に基づく損失関数が特別な場合であることを示す。
ガウス前駆体に対して,提案する損失関数の発散部を閉じた形で評価する。
他のどんな一般に対しても、モンテカルロ近似が用いられる。
これら2つのケースを実装するアルゴリズムを提供する。
提案した損失関数は正規化の度合いを制御するために調整可能な追加パラメータを提供することを示した。
提案した損失関数がガウス前および後におけるKL分散に基づく損失関数よりも規則性が高い条件を導出する。
我々は、ノイズの多いCIFARデータセットとバイアスドヒストロジーデータセットの分類において、最先端のKL発散に基づくBNNの性能改善を示す。
関連論文リスト
- On weight and variance uncertainty in neural networks for regression tasks [1.6649383443094408]
分散不確実性を含むことにより,ベイズNNの予測性能が向上することを示す。
我々は,ネットワーク重みについて,それぞれガウスとスパイク・アンド・スラブの先行値を持つ完全連結高密度ネットワークとドロップアウトNNを探索する。
論文 参考訳(メタデータ) (2025-01-08T04:44:47Z) - Benign Overfitting in Deep Neural Networks under Lazy Training [72.28294823115502]
データ分布が適切に分離された場合、DNNは分類のためのベイズ最適テスト誤差を達成できることを示す。
よりスムーズな関数との補間により、より一般化できることを示す。
論文 参考訳(メタデータ) (2023-05-30T19:37:44Z) - Boosting Differentiable Causal Discovery via Adaptive Sample Reweighting [62.23057729112182]
異なるスコアに基づく因果探索法は観測データから有向非巡回グラフを学習する。
本稿では,Reweighted Score関数ReScoreの適応重みを動的に学習することにより因果発見性能を向上させるためのモデルに依存しないフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-06T14:49:59Z) - How do noise tails impact on deep ReLU networks? [2.5889847253961418]
非パラメトリック回帰関数のクラスにおける最適収束速度が p, 滑らか度, 内在次元に依存することを示す。
我々はまた、深部ReLUニューラルネットワークの近似理論に関する新しい結果にも貢献する。
論文 参考訳(メタデータ) (2022-03-20T00:27:32Z) - Cram\'er-Rao bound-informed training of neural networks for quantitative
MRI [11.964144201247198]
ニューラルネットワークは、定量的MRI、特に磁気共鳴フィンガープリントでパラメーターを推定するためにますます使われている。
それらの利点は、より優れた速度と非効率な非バイアス推定器の優位性である。
しかし、不均一なパラメータを推定することは困難である。
CRBを用いて二乗誤差を正規化するClam'erRao損失関数を提案する。
論文 参考訳(メタデータ) (2021-09-22T06:38:03Z) - Sampling-free Variational Inference for Neural Networks with
Multiplicative Activation Noise [51.080620762639434]
サンプリングフリー変動推論のための後方近似のより効率的なパラメータ化を提案する。
提案手法は,標準回帰問題に対する競合的な結果をもたらし,大規模画像分類タスクに適している。
論文 参考訳(メタデータ) (2021-03-15T16:16:18Z) - Non-Asymptotic Performance Guarantees for Neural Estimation of
$\mathsf{f}$-Divergences [22.496696555768846]
統計的距離は確率分布の相似性を定量化する。
このようなデータからの距離を推定する現代的な方法は、ニューラルネットワーク(NN)による変動形態のパラメータ化と最適化に依存する。
本稿では,このトレードオフを非漸近誤差境界を用いて検討し,SDの3つの一般的な選択に焦点をあてる。
論文 参考訳(メタデータ) (2021-03-11T19:47:30Z) - A Biased Graph Neural Network Sampler with Near-Optimal Regret [57.70126763759996]
グラフニューラルネットワーク(GNN)は、グラフおよびリレーショナルデータにディープネットワークアーキテクチャを適用する手段として登場した。
本論文では,既存の作業に基づいて,GNN近傍サンプリングをマルチアームバンディット問題として扱う。
そこで本研究では,分散を低減し,不安定かつ非限定的な支払いを回避すべく設計されたバイアスをある程度導入した報酬関数を提案する。
論文 参考訳(メタデータ) (2021-03-01T15:55:58Z) - Unlabelled Data Improves Bayesian Uncertainty Calibration under
Covariate Shift [100.52588638477862]
後続正則化に基づく近似ベイズ推定法を開発した。
前立腺癌の予後モデルを世界規模で導入する上で,本手法の有用性を実証する。
論文 参考訳(メタデータ) (2020-06-26T13:50:19Z) - Frequentist Uncertainty in Recurrent Neural Networks via Blockwise
Influence Functions [121.10450359856242]
リカレントニューラルネットワーク(RNN)は、シーケンシャルおよび時系列データのモデリングに有効である。
RNNにおける既存の不確実性定量化のアプローチは、主にベイズ法に基づいている。
a)モデルトレーニングに干渉せず、その精度を損なうことなく、(b)任意のRNNアーキテクチャに適用し、(c)推定不確かさ間隔に関する理論的カバレッジ保証を提供する。
論文 参考訳(メタデータ) (2020-06-20T22:45:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。