論文の概要: Probabilistic Computation with Emerging Covariance: Towards Efficient
Uncertainty Quantification
- arxiv url: http://arxiv.org/abs/2305.19265v2
- Date: Wed, 31 May 2023 08:14:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-01 11:40:18.350047
- Title: Probabilistic Computation with Emerging Covariance: Towards Efficient
Uncertainty Quantification
- Title(参考訳): 創発的共分散による確率論的計算:効率的な不確実性定量化を目指して
- Authors: Hengyuan Ma, Yang Qi, Li Zhang, Wenlian Lu, Jianfeng Feng
- Abstract要約: 堅牢で解釈可能でセキュアな人工知能システムを構築するには、ある程度の不確実性を定量化し表現する必要がある。
確率計算は、その固有の複雑さのために大きな課題を生じさせる。
- 参考スコア(独自算出の注目度): 11.986336118224475
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Building robust, interpretable, and secure artificial intelligence system
requires some degree of quantifying and representing uncertainty via a
probabilistic perspective, as it allows to mimic human cognitive abilities.
However, probabilistic computation presents significant challenges due to its
inherent complexity. In this paper, we develop an efficient and interpretable
probabilistic computation framework by truncating the probabilistic
representation up to its first two moments, i.e., mean and covariance. We
instantiate the framework by training a deterministic surrogate of a stochastic
network that learns the complex probabilistic representation via combinations
of simple activations, encapsulating the non-linearities coupling of the mean
and covariance. We show that when the mean is supervised for optimizing the
task objective, the unsupervised covariance spontaneously emerging from the
non-linear coupling with the mean faithfully captures the uncertainty
associated with model predictions. Our research highlights the inherent
computability and simplicity of probabilistic computation, enabling its wider
application in large-scale settings.
- Abstract(参考訳): 堅牢で解釈可能でセキュアな人工知能システムを構築するには、人間の認知能力を模倣できるため、確率論的観点から不確実性をある程度定量化し、表現する必要がある。
しかし確率的計算は、その固有の複雑さのために大きな課題を生んでいる。
本稿では,確率表現をその最初の2つのモーメント,すなわち平均と共分散に切り換えることで,効率よく解釈可能な確率計算フレームワークを開発する。
我々は、簡単なアクティベーションの組み合わせによって複雑な確率表現を学習する確率ネットワークの決定論的サロゲートを訓練し、平均と共分散の非線形結合をカプセル化する。
課題目標を最適化するために平均が監督されている場合、非線形結合から自然に生じる非教師なし共分散は、モデル予測に関連する不確実性を忠実に捉えていることを示す。
本研究は,確率計算に固有の計算可能性と単純さを強調し,大規模環境での応用を可能にした。
関連論文リスト
- Evidential Deep Learning: Enhancing Predictive Uncertainty Estimation
for Earth System Science Applications [0.32302664881848275]
エビデンシャル・ディープ・ラーニング(Evidential Deep Learning)は、パラメトリック・ディープ・ラーニングを高次分布に拡張する手法である。
本研究では,明らかなニューラルネットワークから得られる不確実性とアンサンブルから得られる不確実性を比較する。
本研究では,従来の手法に匹敵する予測精度を実現するとともに,両方の不確実性源をしっかりと定量化しながら,明らかな深層学習モデルを示す。
論文 参考訳(メタデータ) (2023-09-22T23:04:51Z) - Quantification of Predictive Uncertainty via Inference-Time Sampling [57.749601811982096]
本稿では,データあいまいさの予測不確実性を推定するためのポストホックサンプリング手法を提案する。
この方法は与えられた入力に対して異なる可算出力を生成することができ、予測分布のパラメトリック形式を仮定しない。
論文 参考訳(メタデータ) (2023-08-03T12:43:21Z) - Neural State-Space Models: Empirical Evaluation of Uncertainty
Quantification [0.0]
本稿では,ニューラル状態空間モデルを用いたシステム同定のための不確実性定量化に関する予備的結果を示す。
ベイズ確率的設定で学習問題をフレーム化し、ニューラルネットワークの重みと出力の後方分布を求める。
後部に基づいて,出力の信頼区間を構築し,潜在的に危険なアウト・オブ・ディストリビューション体制下でモデルの使用を効果的に診断できるサプライズ指標を定義する。
論文 参考訳(メタデータ) (2023-04-13T08:57:33Z) - Toward Robust Uncertainty Estimation with Random Activation Functions [3.0586855806896045]
本稿では,ランダムアクティベーション関数(RAF)アンサンブルを用いた不確実性定量化手法を提案する。
RAF アンサンブルは、合成データセットと実世界のデータセットの両方において、最先端のアンサンブル不確実性定量化手法より優れている。
論文 参考訳(メタデータ) (2023-02-28T13:17:56Z) - Semantic Strengthening of Neuro-Symbolic Learning [85.6195120593625]
ニューロシンボリックアプローチは一般に確率論的目的のファジィ近似を利用する。
トラクタブル回路において,これを効率的に計算する方法を示す。
我々は,Warcraftにおける最小コストパスの予測,最小コスト完全マッチングの予測,スドクパズルの解法という3つの課題に対して,アプローチを検証した。
論文 参考訳(メタデータ) (2023-02-28T00:04:22Z) - Looking at the posterior: accuracy and uncertainty of neural-network
predictions [0.0]
予測精度はてんかんとアレタリック不確実性の両方に依存している。
本稿では,共通不確実性に基づく手法よりも優れた新たな獲得関数を提案する。
論文 参考訳(メタデータ) (2022-11-26T16:13:32Z) - The Unreasonable Effectiveness of Deep Evidential Regression [72.30888739450343]
不確実性を考慮した回帰ベースニューラルネットワーク(NN)による新しいアプローチは、従来の決定論的手法や典型的なベイズ的NNよりも有望であることを示している。
我々は、理論的欠点を詳述し、合成および実世界のデータセットのパフォーマンスを分析し、Deep Evidential Regressionが正確な不確実性ではなく定量化であることを示す。
論文 参考訳(メタデータ) (2022-05-20T10:10:32Z) - NUQ: Nonparametric Uncertainty Quantification for Deterministic Neural
Networks [151.03112356092575]
本研究では,Nadaraya-Watson の条件付きラベル分布の非パラメトリック推定に基づく分類器の予測の不確かさの測定方法を示す。
種々の実世界の画像データセットにおける不確実性推定タスクにおいて,本手法の強い性能を示す。
論文 参考訳(メタデータ) (2022-02-07T12:30:45Z) - Improving Uncertainty Calibration via Prior Augmented Data [56.88185136509654]
ニューラルネットワークは、普遍関数近似器として機能することで、複雑なデータ分布から学習することに成功した。
彼らはしばしば予測に自信過剰であり、不正確で誤った確率的予測に繋がる。
本稿では,モデルが不当に過信である特徴空間の領域を探索し,それらの予測のエントロピーをラベルの以前の分布に対して条件的に高める手法を提案する。
論文 参考訳(メタデータ) (2021-02-22T07:02:37Z) - The Hidden Uncertainty in a Neural Networks Activations [105.4223982696279]
ニューラルネットワークの潜在表現の分布は、アウト・オブ・ディストリビューション(OOD)データの検出に成功している。
本研究は、この分布が、モデルの不確実性と相関しているかどうかを考察し、新しい入力に一般化する能力を示す。
論文 参考訳(メタデータ) (2020-12-05T17:30:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。