論文の概要: Uncertainty in Neural Processes
- arxiv url: http://arxiv.org/abs/2010.03753v1
- Date: Thu, 8 Oct 2020 04:10:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-09 11:32:40.948123
- Title: Uncertainty in Neural Processes
- Title(参考訳): ニューラルプロセスの不確かさ
- Authors: Saeid Naderiparizi, Kenny Chiu, Benjamin Bloem-Reddy, Frank Wood
- Abstract要約: 本研究は, コンディショニングデータの量が大きい場合に, 良質なサンプルの収集に重きを置いている文献の最近の傾向に対して, 対応点となることを目的としている。
この低いデータ構造における後部推論に対する質的かつ定量的な改善につながる、特定のアーキテクチャと客観的な選択を強調します。
- 参考スコア(独自算出の注目度): 13.64528794992465
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We explore the effects of architecture and training objective choice on
amortized posterior predictive inference in probabilistic conditional
generative models. We aim this work to be a counterpoint to a recent trend in
the literature that stresses achieving good samples when the amount of
conditioning data is large. We instead focus our attention on the case where
the amount of conditioning data is small. We highlight specific architecture
and objective choices that we find lead to qualitative and quantitative
improvement to posterior inference in this low data regime. Specifically we
explore the effects of choices of pooling operator and variational family on
posterior quality in neural processes. Superior posterior predictive samples
drawn from our novel neural process architectures are demonstrated via image
completion/in-painting experiments.
- Abstract(参考訳): 確率的条件付き生成モデルにおける漸近的予測推論に対するアーキテクチャと目標選択のトレーニングの効果について検討する。
本研究は,コンディショニングデータの量が大きければ良いサンプルを得られることを強調する,最近の文献の傾向と相反するものである。
代わりに、コンディショニングデータの量が小さい場合に注目します。
この低いデータ構造における後部推論に対する質的かつ定量的な改善につながる、特定のアーキテクチャと客観的選択を強調します。
具体的には,プール操作者と変分族の選択が神経プロセスの後方品質に及ぼす影響について検討する。
新規なニューラルプロセスアーキテクチャから抽出した後方後部予測サンプルを画像補完・塗装実験により実証した。
関連論文リスト
- Uncertainty modeling for fine-tuned implicit functions [10.902709236602536]
入射関数は、スパースビューから詳細な物体形状を再構成するコンピュータビジョンにおいて重要な役割を担っている。
暗黙関数における不確実性推定手法であるDropsemblesを導入する。
その結果,Dropsemblesは深層アンサンブルの精度とキャリブレーションレベルを達成するが,計算コストは著しく低いことがわかった。
論文 参考訳(メタデータ) (2024-06-17T20:46:18Z) - Exploiting Causal Graph Priors with Posterior Sampling for Reinforcement Learning [86.22660674919746]
後部サンプリングは、環境の遷移力学に関する事前知識の活用を可能にする。
本稿では,環境変数に対する因果グラフとして先行値が与えられる新しい後方サンプリング手法を提案する。
論文 参考訳(メタデータ) (2023-10-11T14:16:04Z) - Amortised Inference in Bayesian Neural Networks [0.0]
Amortized Pseudo-Observation Variational Inference Bayesian Neural Network (APOVI-BNN)を紹介する。
補正された推論は、従来の変分推論によって得られたものと類似または良好な品質であることが示される。
次に、APOVI-BNNをニューラルプロセスファミリーの新たなメンバーと見なす方法について論じる。
論文 参考訳(メタデータ) (2023-09-06T14:02:33Z) - On the ISS Property of the Gradient Flow for Single Hidden-Layer Neural
Networks with Linear Activations [0.0]
本研究では,不確かさが勾配推定に及ぼす影響について検討した。
一般の過度にパラメータ化された定式化は、損失関数が最小化される集合の外側に配置されるスプリアス平衡の集合を導入することを示す。
論文 参考訳(メタデータ) (2023-05-17T02:26:34Z) - Reconstructing Training Data from Model Gradient, Provably [68.21082086264555]
ランダムに選択されたパラメータ値で1つの勾配クエリからトレーニングサンプルを再構成する。
センシティブなトレーニングデータを示す証明可能な攻撃として、われわれの発見はプライバシーに対する深刻な脅威を示唆している。
論文 参考訳(メタデータ) (2022-12-07T15:32:22Z) - DeepDC: Deep Distance Correlation as a Perceptual Image Quality
Evaluator [53.57431705309919]
ImageNet Pre-trained Deep Neural Network (DNN)は、効果的な画像品質評価(IQA)モデルを構築するための顕著な転送性を示す。
我々は,事前学習DNN機能のみに基づく新しいフル参照IQA(FR-IQA)モデルを開発した。
5つの標準IQAデータセット上で,提案した品質モデルの優位性を示すため,包括的実験を行った。
論文 参考訳(メタデータ) (2022-11-09T14:57:27Z) - An improved neural network model for treatment effect estimation [3.1372269816123994]
本稿では,ニューラルネットワークアーキテクチャに基づく潜在的結果と妥当性スコアを予測するための新しいモデルを提案する。
数値実験により, 提案モデルでは, 最先端モデルと比較して, 処理効果推定性能が向上していることが示されている。
論文 参考訳(メタデータ) (2022-05-23T07:56:06Z) - Improved Fine-tuning by Leveraging Pre-training Data: Theory and
Practice [52.11183787786718]
対象データに事前学習されたモデルを微調整することは、多くのディープラーニングアプリケーションで広く利用されている。
近年の研究では、スクラッチからのトレーニングが、この事前トレーニング戦略に比較して、最終的なパフォーマンスを示すことが実証されている。
本稿では,対象タスクの一般化を改善するために,事前学習データからサブセットを選択する新しい選択戦略を提案する。
論文 参考訳(メタデータ) (2021-11-24T06:18:32Z) - Conditional Variational Autoencoder for Learned Image Reconstruction [5.487951901731039]
本研究では,未知画像の後部分布を問合せ観測で近似する新しいフレームワークを開発する。
暗黙のノイズモデルと先行処理を処理し、データ生成プロセス(フォワード演算子)を組み込み、学習された再構成特性は異なるデータセット間で転送可能である。
論文 参考訳(メタデータ) (2021-10-22T10:02:48Z) - A Bayesian Perspective on Training Speed and Model Selection [51.15664724311443]
モデルのトレーニング速度の測定値を用いて,その限界確率を推定できることを示す。
線形モデルと深部ニューラルネットワークの無限幅限界に対するモデル選択タスクの結果を検証する。
以上の結果から、勾配勾配勾配で訓練されたニューラルネットワークが、一般化する関数に偏りがある理由を説明するための、有望な新たな方向性が示唆された。
論文 参考訳(メタデータ) (2020-10-27T17:56:14Z) - Select-ProtoNet: Learning to Select for Few-Shot Disease Subtype
Prediction [55.94378672172967]
本研究は, 類似患者のサブグループを同定し, 数発の疾患のサブタイプ予測問題に焦点を当てた。
新しいモデルを開発するためにメタラーニング技術を導入し、関連する臨床課題から共通の経験や知識を抽出する。
我々の新しいモデルは、単純だが効果的なメタ学習マシンであるPrototypeal Networkと呼ばれる、慎重に設計されたメタラーナーに基づいて構築されている。
論文 参考訳(メタデータ) (2020-09-02T02:50:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。