論文の概要: Probabilistic computation and uncertainty quantification with emerging
covariance
- arxiv url: http://arxiv.org/abs/2305.19265v3
- Date: Fri, 12 Jan 2024 05:26:44 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-15 21:42:08.435065
- Title: Probabilistic computation and uncertainty quantification with emerging
covariance
- Title(参考訳): 出現する共分散を伴う確率計算と不確実性定量化
- Authors: Hengyuan Ma, Yang Qi, Li Zhang, Wenlian Lu, Jianfeng Feng
- Abstract要約: 堅牢で解釈可能なセキュアなAIシステムを構築するには、確率論的視点の下で不確実性を定量化し、表現する必要がある。
確率計算は、ほとんどの従来の人工ニューラルネットワークにとって重要な課題である。
- 参考スコア(独自算出の注目度): 11.79594512851008
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Building robust, interpretable, and secure AI system requires quantifying and
representing uncertainty under a probabilistic perspective to mimic human
cognitive abilities. However, probabilistic computation presents significant
challenges for most conventional artificial neural network, as they are
essentially implemented in a deterministic manner. In this paper, we develop an
efficient probabilistic computation framework by truncating the probabilistic
representation of neural activation up to its mean and covariance and construct
a moment neural network that encapsulates the nonlinear coupling between the
mean and covariance of the underlying stochastic network. We reveal that when
only the mean but not the covariance is supervised during gradient-based
learning, the unsupervised covariance spontaneously emerges from its nonlinear
coupling with the mean and faithfully captures the uncertainty associated with
model predictions. Our findings highlight the inherent simplicity of
probabilistic computation by seamlessly incorporating uncertainty into model
prediction, paving the way for integrating it into large-scale AI systems.
- Abstract(参考訳): 堅牢で解釈可能なセキュアなAIシステムを構築するには、人間の認知能力を模倣する確率論的視点の下で不確実性を定量化し、表現する必要がある。
しかし、確率計算は基本的に決定論的に実装されているため、従来のニューラルネットワークの多くにとって大きな課題となっている。
本稿では,神経活性化の確率的表現を平均まで切り換え,共分散し,基礎となる確率的ネットワークの平均と共分散の非線形結合を包含するモーメントニューラルネットワークを構築することにより,効率的な確率的計算フレームワークを開発した。
勾配に基づく学習中に共分散が教師ありでない場合のみ、教師なし共分散は自発的に平均との非線形結合から現れ、モデル予測に関連する不確かさを忠実に捉える。
モデル予測に不確実性をシームレスに組み込んで,大規模AIシステムに組み込むことで,確率計算の本質的な単純さを強調した。
関連論文リスト
- Evidential Deep Learning: Enhancing Predictive Uncertainty Estimation
for Earth System Science Applications [0.32302664881848275]
エビデンシャル・ディープ・ラーニング(Evidential Deep Learning)は、パラメトリック・ディープ・ラーニングを高次分布に拡張する手法である。
本研究では,明らかなニューラルネットワークから得られる不確実性とアンサンブルから得られる不確実性を比較する。
本研究では,従来の手法に匹敵する予測精度を実現するとともに,両方の不確実性源をしっかりと定量化しながら,明らかな深層学習モデルを示す。
論文 参考訳(メタデータ) (2023-09-22T23:04:51Z) - Quantification of Predictive Uncertainty via Inference-Time Sampling [57.749601811982096]
本稿では,データあいまいさの予測不確実性を推定するためのポストホックサンプリング手法を提案する。
この方法は与えられた入力に対して異なる可算出力を生成することができ、予測分布のパラメトリック形式を仮定しない。
論文 参考訳(メタデータ) (2023-08-03T12:43:21Z) - Neural State-Space Models: Empirical Evaluation of Uncertainty
Quantification [0.0]
本稿では,ニューラル状態空間モデルを用いたシステム同定のための不確実性定量化に関する予備的結果を示す。
ベイズ確率的設定で学習問題をフレーム化し、ニューラルネットワークの重みと出力の後方分布を求める。
後部に基づいて,出力の信頼区間を構築し,潜在的に危険なアウト・オブ・ディストリビューション体制下でモデルの使用を効果的に診断できるサプライズ指標を定義する。
論文 参考訳(メタデータ) (2023-04-13T08:57:33Z) - Toward Robust Uncertainty Estimation with Random Activation Functions [3.0586855806896045]
本稿では,ランダムアクティベーション関数(RAF)アンサンブルを用いた不確実性定量化手法を提案する。
RAF アンサンブルは、合成データセットと実世界のデータセットの両方において、最先端のアンサンブル不確実性定量化手法より優れている。
論文 参考訳(メタデータ) (2023-02-28T13:17:56Z) - Semantic Strengthening of Neuro-Symbolic Learning [85.6195120593625]
ニューロシンボリックアプローチは一般に確率論的目的のファジィ近似を利用する。
トラクタブル回路において,これを効率的に計算する方法を示す。
我々は,Warcraftにおける最小コストパスの予測,最小コスト完全マッチングの予測,スドクパズルの解法という3つの課題に対して,アプローチを検証した。
論文 参考訳(メタデータ) (2023-02-28T00:04:22Z) - Looking at the posterior: accuracy and uncertainty of neural-network
predictions [0.0]
予測精度はてんかんとアレタリック不確実性の両方に依存している。
本稿では,共通不確実性に基づく手法よりも優れた新たな獲得関数を提案する。
論文 参考訳(メタデータ) (2022-11-26T16:13:32Z) - The Unreasonable Effectiveness of Deep Evidential Regression [72.30888739450343]
不確実性を考慮した回帰ベースニューラルネットワーク(NN)による新しいアプローチは、従来の決定論的手法や典型的なベイズ的NNよりも有望であることを示している。
我々は、理論的欠点を詳述し、合成および実世界のデータセットのパフォーマンスを分析し、Deep Evidential Regressionが正確な不確実性ではなく定量化であることを示す。
論文 参考訳(メタデータ) (2022-05-20T10:10:32Z) - NUQ: Nonparametric Uncertainty Quantification for Deterministic Neural
Networks [151.03112356092575]
本研究では,Nadaraya-Watson の条件付きラベル分布の非パラメトリック推定に基づく分類器の予測の不確かさの測定方法を示す。
種々の実世界の画像データセットにおける不確実性推定タスクにおいて,本手法の強い性能を示す。
論文 参考訳(メタデータ) (2022-02-07T12:30:45Z) - Improving Uncertainty Calibration via Prior Augmented Data [56.88185136509654]
ニューラルネットワークは、普遍関数近似器として機能することで、複雑なデータ分布から学習することに成功した。
彼らはしばしば予測に自信過剰であり、不正確で誤った確率的予測に繋がる。
本稿では,モデルが不当に過信である特徴空間の領域を探索し,それらの予測のエントロピーをラベルの以前の分布に対して条件的に高める手法を提案する。
論文 参考訳(メタデータ) (2021-02-22T07:02:37Z) - The Hidden Uncertainty in a Neural Networks Activations [105.4223982696279]
ニューラルネットワークの潜在表現の分布は、アウト・オブ・ディストリビューション(OOD)データの検出に成功している。
本研究は、この分布が、モデルの不確実性と相関しているかどうかを考察し、新しい入力に一般化する能力を示す。
論文 参考訳(メタデータ) (2020-12-05T17:30:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。