論文の概要: Exploiting Inferential Structure in Neural Processes
- arxiv url: http://arxiv.org/abs/2306.15169v1
- Date: Tue, 27 Jun 2023 03:01:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-28 14:48:19.631472
- Title: Exploiting Inferential Structure in Neural Processes
- Title(参考訳): 神経過程における推論構造の利用
- Authors: Dharmesh Tailor, Mohammad Emtiyaz Khan, Eric Nalisnick
- Abstract要約: ニューラルネットワーク(NP)は、コンテキストセットに基づいて高速な適応を行う能力によって、魅力的である。
我々は、NPの潜伏変数にグラフィカルモデルで定義されたリッチな事前定義を与えることができるフレームワークを提供する。
- 参考スコア(独自算出の注目度): 15.058161307401864
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural Processes (NPs) are appealing due to their ability to perform fast
adaptation based on a context set. This set is encoded by a latent variable,
which is often assumed to follow a simple distribution. However, in real-word
settings, the context set may be drawn from richer distributions having
multiple modes, heavy tails, etc. In this work, we provide a framework that
allows NPs' latent variable to be given a rich prior defined by a graphical
model. These distributional assumptions directly translate into an appropriate
aggregation strategy for the context set. Moreover, we describe a
message-passing procedure that still allows for end-to-end optimization with
stochastic gradients. We demonstrate the generality of our framework by using
mixture and Student-t assumptions that yield improvements in function modelling
and test-time robustness.
- Abstract(参考訳): ニューラルネットワーク(NP)は、コンテキストセットに基づいて高速な適応を行う能力によって、魅力的である。
この集合は、しばしば単純な分布に従うと仮定される潜在変数によって符号化される。
しかし、実単語設定では、コンテキストセットは複数のモード、重いテールなどを持つよりリッチな分布から引き出すことができる。
本稿では,npsの潜在変数にグラフィカルモデルによって定義されたリッチな事前値を与えるためのフレームワークを提供する。
これらの分布仮定は、文脈集合に対する適切な集約戦略に直接変換する。
さらに,確率勾配を用いたエンドツーエンド最適化が可能となるメッセージパッシング手順について述べる。
我々は,関数モデリングとテスト時間ロバスト性の改善をもたらす混合仮定と学生-t仮定を用いて,フレームワークの汎用性を実証する。
関連論文リスト
- GFlowNet-EM for learning compositional latent variable models [115.96660869630227]
ラテントの後方のモデリングにおける重要なトレードオフは、表現性とトラクタブルな最適化の間にある。
非正規化密度からサンプリングするアルゴリズムであるGFlowNetsを提案する。
GFlowNetsをトレーニングして、後部から潜伏者へのサンプルをトレーニングすることにより、それらの強度をアモータライズされた変分アルゴリズムとして活用する。
論文 参考訳(メタデータ) (2023-02-13T18:24:21Z) - Object Representations as Fixed Points: Training Iterative Refinement
Algorithms with Implicit Differentiation [88.14365009076907]
反復的洗練は表現学習に有用なパラダイムである。
トレーニングの安定性とトラクタビリティを向上させる暗黙の差別化アプローチを開発する。
論文 参考訳(メタデータ) (2022-07-02T10:00:35Z) - Distributional Gradient Boosting Machines [77.34726150561087]
私たちのフレームワークはXGBoostとLightGBMをベースにしています。
我々は,このフレームワークが最先端の予測精度を実現することを示す。
論文 参考訳(メタデータ) (2022-04-02T06:32:19Z) - Retrieve-and-Fill for Scenario-based Task-Oriented Semantic Parsing [110.4684789199555]
シナリオベースのセマンティックパーシングを導入し、最初に発話の「scenario」を曖昧にする必要がある元のタスクの変種を紹介します。
この定式化により、タスクの粗くきめ細かな側面を分離することが可能となり、それぞれがオフザシェルフニューラルネットワークモジュールで解決される。
私たちのモデルはモジュール化され、差別化可能で、解釈可能で、シナリオから余分な監督を得られるようになります。
論文 参考訳(メタデータ) (2022-02-02T08:00:21Z) - Structured Reordering for Modeling Latent Alignments in Sequence
Transduction [86.94309120789396]
本稿では,分離可能な置換の辺りを正確に推定する効率的な動的プログラミングアルゴリズムを提案する。
結果のSeq2seqモデルは、合成問題やNLPタスクの標準モデルよりも体系的な一般化が優れている。
論文 参考訳(メタデータ) (2021-06-06T21:53:54Z) - On Guaranteed Optimal Robust Explanations for NLP Models [16.358394218953833]
我々は,マシーン学習のための推論に基づく説明を構築し,ニューラルネットワークモデルのための局所的説明を計算する方法を開発した。
我々は,それぞれ暗黙の打撃集合と最大普遍部分集合に基づく2つの解アルゴリズムを提案する。
SST、Twitter、IMDBデータセットから、広く使用されている3つの感情分析タスクと最大100ワードのテキストに基づいてフレームワークを評価します。
論文 参考訳(メタデータ) (2021-05-08T08:44:48Z) - Flow-based Spatio-Temporal Structured Prediction of Motion Dynamics [21.24885597341643]
条件付き流れ (CNF) は、高次元と相互相関を持つ複雑な分布を表現できるフレキシブルな生成モデルである。
本研究では,時間的入力特徴の出力を自己回帰的に正規化する新しい手法としてMotionFlowを提案する。
本稿では,予測,動き予測時系列予測,二分節分割などのタスクに本手法を適用した。
論文 参考訳(メタデータ) (2021-04-09T14:30:35Z) - Exchangeable Neural ODE for Set Modeling [13.582728834152062]
常微分方程式(ODE)による置換等式を実現するためのより一般的な定式化を提案する。
提案するモジュールであるExNODE(Exchangeable Neural ODE)は,識別タスクと生成タスクの両方にシームレスに適用できる。
また、時間次元における集合モデリングを拡張し、時間的集合モデリングのためのVAEベースモデルを提案する。
論文 参考訳(メタデータ) (2020-08-06T14:11:36Z) - Meta-Learning Stationary Stochastic Process Prediction with
Convolutional Neural Processes [32.02612871707347]
提案するConvNPは,ニューラルプロセス(NP)に翻訳等価性を付与し,畳み込み条件NPを拡張して予測分布への依存性を許容する。
本研究では,1DにおけるConvNPの強い性能と一般化能力,回帰画像補完,実時間データを用いた各種タスクについて述べる。
論文 参考訳(メタデータ) (2020-07-02T18:25:27Z) - Improve Variational Autoencoder for Text Generationwith Discrete Latent
Bottleneck [52.08901549360262]
変分オートエンコーダ(VAE)は、エンドツーエンドの表現学習において必須のツールである。
VAEは強い自己回帰デコーダで潜伏変数を無視する傾向がある。
よりコンパクトな潜在空間において暗黙的な潜在特徴マッチングを強制する原理的アプローチを提案する。
論文 参考訳(メタデータ) (2020-04-22T14:41:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。