論文の概要: Sparse Implicit Processes for Approximate Inference
- arxiv url: http://arxiv.org/abs/2110.07618v1
- Date: Thu, 14 Oct 2021 18:00:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-19 10:42:04.759024
- Title: Sparse Implicit Processes for Approximate Inference
- Title(参考訳): 近似推論のためのスパース命令過程
- Authors: Sim\'on Rodr\'iguez Santana, Bryan Zaldivar, Daniel Hern\'andez-Lobato
- Abstract要約: インプリシットプロセス(IP)は、ベイズニューラルネットワーク、ニューラルネットワーク、ニューラルネットワーク、データジェネレータなどのモデルを記述するフレキシブルなプリエントである。
本稿では,先行IPと近似後IPのパラメータを同時に調整する手法を提案する。
その結果,従来のIPパラメータをデータに調整し,ガウス的でない正確な予測分布を提供する,IPを近似推論するためのスケーラブルな手法が得られた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Implicit Processes (IPs) are flexible priors that can describe models such as
Bayesian neural networks, neural samplers and data generators. IPs allow for
approximate inference in function-space. This avoids some degenerate problems
of parameter-space approximate inference due to the high number of parameters
and strong dependencies. For this, an extra IP is often used to approximate the
posterior of the prior IP. However, simultaneously adjusting the parameters of
the prior IP and the approximate posterior IP is a challenging task. Existing
methods that can tune the prior IP result in a Gaussian predictive
distribution, which fails to capture important data patterns. By contrast,
methods producing flexible predictive distributions by using another IP to
approximate the posterior process cannot fit the prior IP to the observed data.
We propose here a method that can carry out both tasks. For this, we rely on an
inducing-point representation of the prior IP, as often done in the context of
sparse Gaussian processes. The result is a scalable method for approximate
inference with IPs that can tune the prior IP parameters to the data, and that
provides accurate non-Gaussian predictive distributions.
- Abstract(参考訳): Implicit Processs(IP)は、ベイズニューラルネットワーク、ニューラルネットワーク、ニューラルネットワーク、データジェネレータなどのモデルを記述するフレキシブルなプリエントである。
IPは関数空間における近似推論を可能にする。
これにより、多数のパラメータと強い依存関係によるパラメータ空間近似推論の退化問題を回避することができる。
このため、前のIPの後方を近似するために余分なIPがしばしば使用される。
しかし、先行IPと近似後IPのパラメータを同時に調整することは難しい課題である。
従来のIPをチューニングできる既存の方法はガウスの予測分布となり、重要なデータパターンをキャプチャできない。
対照的に、後方処理を近似するために別のIPを用いて柔軟な予測分布を生成する方法は、観測データに前のIPを適合させることができない。
ここでは,両タスクを実行できる手法を提案する。
このために、スパースガウス過程の文脈でしばしば行われるように、我々は以前のIPの誘導ポイント表現に依存している。
その結果,従来のIPパラメータをデータに調整し,ガウス的でない正確な予測分布を提供する,IPを近似推論するためのスケーラブルな手法が得られた。
関連論文リスト
- DDP: Diffusion Model for Dense Visual Prediction [71.55770562024782]
本研究では,条件付き拡散パイプラインに基づく高密度視覚予測のための,シンプルで効率的かつ強力なフレームワークを提案する。
DDPと呼ばれるこの手法は、デノナイジング拡散過程を現代の知覚パイプラインに効率的に拡張する。
DDPは、従来の単段階識別法とは対照的に、動的推論や不確実性認識などの魅力的な特性を示す。
論文 参考訳(メタデータ) (2023-03-30T17:26:50Z) - A Meta-Learning Approach to Predicting Performance and Data Requirements [163.4412093478316]
本稿では,モデルが目標性能に達するために必要なサンプル数を推定する手法を提案する。
モデル性能を推定するデファクト原理であるパワー法則が,小さなデータセットを使用する場合の誤差が大きいことが判明した。
本稿では,2つのデータを異なる方法で処理するPPL法について紹介する。
論文 参考訳(メタデータ) (2023-03-02T21:48:22Z) - FaDIn: Fast Discretized Inference for Hawkes Processes with General
Parametric Kernels [82.53569355337586]
この研究は、有限なサポートを持つ一般パラメトリックカーネルを用いた時間点プロセス推論の効率的な解を提供する。
脳磁図(MEG)により記録された脳信号からの刺激誘発パターンの発生をモデル化し,その有効性を評価する。
その結果,提案手法により,最先端技術よりもパターン遅延の推定精度が向上することが示唆された。
論文 参考訳(メタデータ) (2022-10-10T12:35:02Z) - Correcting Model Bias with Sparse Implicit Processes [0.9187159782788579]
SIP(Sparse Implicit Processes)は,データ生成機構がモデルによって入力されるものと強く異なる場合,モデルバイアスを補正できることを示す。
合成データセットを用いて、SIPは、初期推定モデルの正確な予測よりもデータをよりよく反映する予測分布を提供することができることを示す。
論文 参考訳(メタデータ) (2022-07-21T18:00:01Z) - Deep Variational Implicit Processes [0.0]
入射過程(IPs)はガウス過程(GPs)の一般化である
本稿では,DVIP(Deep Variational Implicit Process)と呼ばれるIPの多層一般化を提案する。
論文 参考訳(メタデータ) (2022-06-14T10:04:41Z) - NUQ: Nonparametric Uncertainty Quantification for Deterministic Neural
Networks [151.03112356092575]
本研究では,Nadaraya-Watson の条件付きラベル分布の非パラメトリック推定に基づく分類器の予測の不確かさの測定方法を示す。
種々の実世界の画像データセットにおける不確実性推定タスクにおいて,本手法の強い性能を示す。
論文 参考訳(メタデータ) (2022-02-07T12:30:45Z) - Scaling Structured Inference with Randomization [64.18063627155128]
本稿では、構造化されたモデルを数万の潜在状態に拡張するためにランダム化された動的プログラミング(RDP)のファミリを提案する。
我々の手法は古典的DPベースの推論に広く適用できる。
また、自動微分とも互換性があり、ニューラルネットワークとシームレスに統合できる。
論文 参考訳(メタデータ) (2021-12-07T11:26:41Z) - Mitigating Performance Saturation in Neural Marked Point Processes:
Architectures and Loss Functions [50.674773358075015]
本稿では,グラフ畳み込み層のみを利用するGCHPという単純なグラフベースのネットワーク構造を提案する。
我々は,GCHPがトレーニング時間を大幅に短縮し,時間間確率仮定による確率比損失がモデル性能を大幅に改善できることを示した。
論文 参考訳(メタデータ) (2021-07-07T16:59:14Z) - Iterative Methods for Private Synthetic Data: Unifying Framework and New
Methods [18.317488965846636]
クエリリリースのためのプライベート合成データ生成について検討する。
目標は、差分プライバシーの対象となるセンシティブデータセットの衛生バージョンを構築することだ。
本枠組みでは,2つの新しい手法を提案する。
論文 参考訳(メタデータ) (2021-06-14T04:19:35Z) - A Graph Neural Network Approach for Scalable and Dynamic IP Similarity
in Enterprise Networks [1.6516902135723865]
IPアドレス間の類似性を測定することは、企業ネットワークの日々の運用において重要な課題である。
本稿では,適応型グラフニューラルネットワーク(GNN)アーキテクチャを用いた新しいIP埋め込み手法を提案する。
論文 参考訳(メタデータ) (2020-10-09T19:43:30Z) - Scalable Plug-and-Play ADMM with Convergence Guarantees [24.957046830965822]
広範に使われている変種を漸進的に提案する。
ADMMアルゴリズムにより、大規模データセットにスケーラブルになる。
理論的には,集合的明示的な仮定の下で収束アルゴリズムを解析する。
論文 参考訳(メタデータ) (2020-06-05T04:10:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。