論文の概要: Global Convolutional Neural Processes
- arxiv url: http://arxiv.org/abs/2109.00691v1
- Date: Thu, 2 Sep 2021 03:32:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-04 01:41:47.461379
- Title: Global Convolutional Neural Processes
- Title(参考訳): グローバル畳み込みニューラルプロセス
- Authors: Xuesong Wang, Lina Yao, Xianzhi Wang, Hye-young Paik, and Sen Wang
- Abstract要約: 我々は,潜伏NPFにおけるSOTAログ類似化を実現するGloBal Convolutional Neural Process(GBCoNP)を構築する。
離散化された入力空間上の集合である大域的不確実性表現 p(z) を設計する。
学習した先行データは、1D、2D、新たに提案された時空間のCOVIDデータセットなど、さまざまなシナリオで分析される。
- 参考スコア(独自算出の注目度): 52.85558458799716
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: The ability to deal with uncertainty in machine learning models has become
equally, if not more, crucial to their predictive ability itself. For instance,
during the pandemic, governmental policies and personal decisions are
constantly made around uncertainties. Targeting this, Neural Process Families
(NPFs) have recently shone a light on prediction with uncertainties by bridging
Gaussian processes and neural networks. Latent neural process, a member of NPF,
is believed to be capable of modelling the uncertainty on certain points (local
uncertainty) as well as the general function priors (global uncertainties).
Nonetheless, some critical questions remain unresolved, such as a formal
definition of global uncertainties, the causality behind global uncertainties,
and the manipulation of global uncertainties for generative models. Regarding
this, we build a member GloBal Convolutional Neural Process(GBCoNP) that
achieves the SOTA log-likelihood in latent NPFs. It designs a global
uncertainty representation p(z), which is an aggregation on a discretized input
space. The causal effect between the degree of global uncertainty and the
intra-task diversity is discussed. The learnt prior is analyzed on a variety of
scenarios, including 1D, 2D, and a newly proposed spatial-temporal COVID
dataset. Our manipulation of the global uncertainty not only achieves
generating the desired samples to tackle few-shot learning, but also enables
the probability evaluation on the functional priors.
- Abstract(参考訳): 機械学習モデルの不確実性に対処する能力は、その予測能力自体にとって、それ以上に重要なものとなっている。
例えば、パンデミックの間、政府の政策や個人的決定は不確実性を中心に常に行われる。
これをターゲットにしたNPF(Neural Process Families)は先頃,ガウスのプロセスとニューラルネットワークをブリッジすることで,不確実性による予測に光を当てた。
NPFのメンバーである潜在神経過程は、特定の点(局所的な不確実性)と一般関数の先行性(グローバル不確実性)をモデル化できると考えられている。
それでも、グローバル不確実性の形式的定義、グローバル不確実性の背景にある因果性、生成モデルに対するグローバル不確実性の操作など、いくつかの重要な疑問は未解決のままである。
これに関して、我々は、潜伏NPFにおけるSOTAログ類似化を実現するGloBal Convolutional Neural Process(GBCoNP)を構築する。
離散化された入力空間上の集合である大域的不確実性表現 p(z) を設計する。
グローバル不確実性の度合いとタスク内多様性の因果関係について論じる。
学習した先行データは、1D、2D、新たに提案された時空間のCOVIDデータセットなど、さまざまなシナリオで分析される。
我々の大域的不確実性の操作は、望まれるサンプルを生成して数発の学習に取り組むだけでなく、機能的事前の確率評価を可能にします。
関連論文リスト
- Decomposing Uncertainty for Large Language Models through Input Clarification Ensembling [69.83976050879318]
大規模言語モデル(LLM)では、不確実性の原因を特定することが、信頼性、信頼性、解釈可能性を改善するための重要なステップである。
本稿では,LLMのための不確実性分解フレームワークについて述べる。
提案手法は,入力に対する一連の明確化を生成し,それらをLLMに入力し,対応する予測をアンサンブルする。
論文 参考訳(メタデータ) (2023-11-15T05:58:35Z) - Uncertainty in Natural Language Processing: Sources, Quantification, and
Applications [56.130945359053776]
NLP分野における不確実性関連作業の総合的なレビューを行う。
まず、自然言語の不確実性の原因を、入力、システム、出力の3つのタイプに分類する。
我々は,NLPにおける不確実性推定の課題について論じ,今後の方向性について論じる。
論文 参考訳(メタデータ) (2023-06-05T06:46:53Z) - Uncertainty Propagation in Node Classification [9.03984964980373]
本稿では,ノード分類作業におけるグラフニューラルネットワーク(GNN)の不確実性の測定に焦点をあてる。
ベイジアンモデリングフレームワークにGNNを組み込んだベイジアン不確実性伝播(BUP)法を提案する。
本稿では,GNNが学習過程における予測的不確実性を明確に統合できるようにするノード分類における不確実性指向の損失について述べる。
論文 参考訳(メタデータ) (2023-04-03T12:18:23Z) - A Benchmark on Uncertainty Quantification for Deep Learning Prognostics [0.0]
診断学的な深層学習のための不確実性定量化の分野における最新の発展のいくつかを評価する。
これには、ベイズニューラルネットワーク(BNN)の最先端の変分推論アルゴリズムや、モンテカルロ・ドロップアウト(MCD)、ディープアンサンブル(DE)、ヘテロセダスティックニューラルネットワーク(HNN)などの一般的な代替品が含まれる。
この手法の性能は、NASA NCMAPSSの航空機エンジン用データセットのサブセットで評価される。
論文 参考訳(メタデータ) (2023-02-09T16:12:47Z) - The Unreasonable Effectiveness of Deep Evidential Regression [72.30888739450343]
不確実性を考慮した回帰ベースニューラルネットワーク(NN)による新しいアプローチは、従来の決定論的手法や典型的なベイズ的NNよりも有望であることを示している。
我々は、理論的欠点を詳述し、合成および実世界のデータセットのパフォーマンスを分析し、Deep Evidential Regressionが正確な不確実性ではなく定量化であることを示す。
論文 参考訳(メタデータ) (2022-05-20T10:10:32Z) - A General Framework for quantifying Aleatoric and Epistemic uncertainty
in Graph Neural Networks [0.29494468099506893]
Graph Neural Networks(GNN)は、グラフ理論と機械学習をエレガントに統合する強力なフレームワークを提供する。
本稿では,モデル誤差と測定の不確かさからGNNの予測の不確かさを定量化する問題を考察する。
ベイジアンフレームワークにおける両源の不確実性を扱うための統一的なアプローチを提案する。
論文 参考訳(メタデータ) (2022-05-20T05:25:40Z) - NUQ: Nonparametric Uncertainty Quantification for Deterministic Neural
Networks [151.03112356092575]
本研究では,Nadaraya-Watson の条件付きラベル分布の非パラメトリック推定に基づく分類器の予測の不確かさの測定方法を示す。
種々の実世界の画像データセットにおける不確実性推定タスクにおいて,本手法の強い性能を示す。
論文 参考訳(メタデータ) (2022-02-07T12:30:45Z) - Dense Uncertainty Estimation via an Ensemble-based Conditional Latent
Variable Model [68.34559610536614]
我々は、アレータリック不確実性はデータの固有の特性であり、偏見のないオラクルモデルでのみ正確に推定できると論じる。
そこで本研究では,軌道不確実性推定のためのオラクルモデルを近似するために,列車時の新しいサンプリングと選択戦略を提案する。
以上の結果から,提案手法は精度の高い決定論的結果と確実な不確実性推定の両方を達成できることが示唆された。
論文 参考訳(メタデータ) (2021-11-22T08:54:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。