論文の概要: Analytic Mutual Information in Bayesian Neural Networks
- arxiv url: http://arxiv.org/abs/2201.09815v1
- Date: Mon, 24 Jan 2022 17:30:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-25 19:04:35.173538
- Title: Analytic Mutual Information in Bayesian Neural Networks
- Title(参考訳): ベイズニューラルネットワークにおける解析的相互情報
- Authors: Jae Oh Woo
- Abstract要約: 相互情報は、不確実性を定量化するベイズニューラルネットワークにおける不確実性尺度の例である。
我々は,点過程のエントロピーの概念を利用して,モデルパラメータと予測出力の相互情報の解析式を導出する。
応用として,ディリクレパラメータの推定について考察し,アクティブラーニングの不確実性対策における実例を示す。
- 参考スコア(独自算出の注目度): 0.8122270502556371
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Bayesian neural networks have successfully designed and optimized a robust
neural network model in many application problems, including uncertainty
quantification. However, with its recent success, information-theoretic
understanding about the Bayesian neural network is still at an early stage.
Mutual information is an example of an uncertainty measure in a Bayesian neural
network to quantify epistemic uncertainty. Still, no analytic formula is known
to describe it, one of the fundamental information measures to understand the
Bayesian deep learning framework. In this paper, with the Dirichlet
distribution assumption in its intermediate encoded message, we derive the
analytical formula of the mutual information between model parameters and the
predictive output by leveraging the notion of the point process entropy. Then,
as an application, we discuss the estimation of the Dirichlet parameters and
show its practical application in the active learning uncertainty measures.
- Abstract(参考訳): ベイズニューラルネットワークは、不確実性定量化を含む多くのアプリケーション問題において、堅牢なニューラルネットワークモデルの設計と最適化に成功した。
しかし、最近の成功により、ベイズニューラルネットワークに関する情報理論的な理解はまだ初期段階にある。
相互情報は、認識的不確かさを定量化するベイズニューラルネットワークにおける不確実性尺度の例である。
それでも、ベイズ深層学習フレームワークを理解するための基本的な情報尺度の1つである、それを説明する解析公式は知られていない。
本稿では,その中間符号化メッセージにおけるディリクレ分布の仮定を用いて,点過程エントロピーの概念を用いて,モデルパラメータと予測出力との相互情報の解析公式を導出する。
そこで,応用としてディリクレパラメータの推定について考察し,その実例をアクティブラーニングの不確実性尺度に示す。
関連論文リスト
- Tractable Function-Space Variational Inference in Bayesian Neural
Networks [72.97620734290139]
ニューラルネットワークの予測不確かさを推定するための一般的なアプローチは、ネットワークパラメータに対する事前分布を定義することである。
本稿では,事前情報を組み込むスケーラブルな関数空間変動推論手法を提案する。
提案手法は,様々な予測タスクにおいて,最先端の不確実性評価と予測性能をもたらすことを示す。
論文 参考訳(メタデータ) (2023-12-28T18:33:26Z) - Neural State-Space Models: Empirical Evaluation of Uncertainty
Quantification [0.0]
本稿では,ニューラル状態空間モデルを用いたシステム同定のための不確実性定量化に関する予備的結果を示す。
ベイズ確率的設定で学習問題をフレーム化し、ニューラルネットワークの重みと出力の後方分布を求める。
後部に基づいて,出力の信頼区間を構築し,潜在的に危険なアウト・オブ・ディストリビューション体制下でモデルの使用を効果的に診断できるサプライズ指標を定義する。
論文 参考訳(メタデータ) (2023-04-13T08:57:33Z) - MARS: Meta-Learning as Score Matching in the Function Space [79.73213540203389]
本稿では,一連の関連するデータセットから帰納バイアスを抽出する手法を提案する。
機能的ベイズニューラルネットワーク推論を用いて、前者をプロセスとみなし、関数空間で推論を行う。
本手法は,データ生成プロセスのスコア関数をメタラーニングすることにより,複雑な事前知識をシームレスに獲得し,表現することができる。
論文 参考訳(メタデータ) (2022-10-24T15:14:26Z) - Look beyond labels: Incorporating functional summary information in
Bayesian neural networks [11.874130244353253]
予測確率に関する要約情報を組み込むための簡単な手法を提案する。
利用可能な要約情報は、拡張データとして組み込まれ、ディリクレプロセスでモデル化される。
本稿では,タスクの難易度やクラス不均衡をモデルに示す方法について述べる。
論文 参考訳(メタデータ) (2022-07-04T07:06:45Z) - The Unreasonable Effectiveness of Deep Evidential Regression [72.30888739450343]
不確実性を考慮した回帰ベースニューラルネットワーク(NN)による新しいアプローチは、従来の決定論的手法や典型的なベイズ的NNよりも有望であることを示している。
我々は、理論的欠点を詳述し、合成および実世界のデータセットのパフォーマンスを分析し、Deep Evidential Regressionが正確な不確実性ではなく定量化であることを示す。
論文 参考訳(メタデータ) (2022-05-20T10:10:32Z) - NUQ: Nonparametric Uncertainty Quantification for Deterministic Neural
Networks [151.03112356092575]
本研究では,Nadaraya-Watson の条件付きラベル分布の非パラメトリック推定に基づく分類器の予測の不確かさの測定方法を示す。
種々の実世界の画像データセットにおける不確実性推定タスクにおいて,本手法の強い性能を示す。
論文 参考訳(メタデータ) (2022-02-07T12:30:45Z) - An Overview of Uncertainty Quantification Methods for Infinite Neural
Networks [0.0]
無限幅ニューラルネットワークにおける不確実性を定量化する手法について検討する。
我々は、予測の不確実性に対する厳密な閉形式解を得るために、いくつかの等価結果を利用する。
論文 参考訳(メタデータ) (2022-01-13T00:03:22Z) - FF-NSL: Feed-Forward Neural-Symbolic Learner [70.978007919101]
本稿では,Feed-Forward Neural-Symbolic Learner (FF-NSL) と呼ばれるニューラルシンボリック学習フレームワークを紹介する。
FF-NSLは、ラベル付き非構造化データから解釈可能な仮説を学習するために、Answer Setセマンティクスに基づく最先端のICPシステムとニューラルネットワークを統合する。
論文 参考訳(メタデータ) (2021-06-24T15:38:34Z) - Multivariate Deep Evidential Regression [77.34726150561087]
不確実性を認識するニューラルネットワークによる新しいアプローチは、従来の決定論的手法よりも有望である。
本稿では,レグレッションベースニューラルネットワークからアレータ性およびてんかん性不確かさを抽出する手法を提案する。
論文 参考訳(メタデータ) (2021-04-13T12:20:18Z) - How Much Can I Trust You? -- Quantifying Uncertainties in Explaining
Neural Networks [19.648814035399013]
説明可能なAI(XAI)は、ディープニューラルネットワークなどの学習マシンが生成した予測の解釈を提供することを目的としている。
ニューラルネットワークの任意の説明法をベイズニューラルネットワークの説明法に変換するための新しいフレームワークを提案する。
様々な実験において,本手法の有効性と有用性を示す。
論文 参考訳(メタデータ) (2020-06-16T08:54:42Z) - Bayesian Neural Networks [0.0]
ニューラルネットワークによる予測におけるエラーを原理的に得る方法を示し、これらのエラーを特徴付ける2つの方法を提案する。
さらに、これらの2つのメソッドが実際に実施される際に、重大な落とし穴を持つ方法についても説明します。
論文 参考訳(メタデータ) (2020-06-02T09:43:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。