論文の概要: Deep Stochastic Processes via Functional Markov Transition Operators
- arxiv url: http://arxiv.org/abs/2305.15574v1
- Date: Wed, 24 May 2023 21:15:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-26 18:30:17.491515
- Title: Deep Stochastic Processes via Functional Markov Transition Operators
- Title(参考訳): 関数マルコフ遷移作用素による深い確率過程
- Authors: Jin Xu, Emilien Dupont, Kaspar M\"artens, Tom Rainforth, Yee Whye Teh
- Abstract要約: 本稿では,ニューラルパラメータ化マルコフ遷移作用素の列を関数空間に重ねて構築した新しいプロセス群(SP)を紹介する。
これらのマルコフ遷移作用素は、SPの交換可能性と整合性を維持することができることを証明している。
- 参考スコア(独自算出の注目度): 59.55961312230447
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce Markov Neural Processes (MNPs), a new class of Stochastic
Processes (SPs) which are constructed by stacking sequences of neural
parameterised Markov transition operators in function space. We prove that
these Markov transition operators can preserve the exchangeability and
consistency of SPs. Therefore, the proposed iterative construction adds
substantial flexibility and expressivity to the original framework of Neural
Processes (NPs) without compromising consistency or adding restrictions. Our
experiments demonstrate clear advantages of MNPs over baseline models on a
variety of tasks.
- Abstract(参考訳): 本稿では,ニューラルパラメータ化マルコフ遷移作用素を関数空間に積み重ねて構築した,確率過程(SP)の新しいクラスであるマルコフニューラルプロセス(MNP)を紹介する。
これらのマルコフ遷移作用素は、SPの交換可能性と整合性を維持することができる。
したがって,提案する反復的構成は,一貫性を損なうことなく,制約を加えることなく,元のニューラル・プロセス・フレームワーク(nps)にかなりの柔軟性と表現性を与える。
本実験は, 各種タスクのベースラインモデルに対して, MNPの利点を明らかに示すものである。
関連論文リスト
- Functional Stochastic Gradient MCMC for Bayesian Neural Networks [15.766590837199427]
本稿では,より情報に富む事前を組み込むことのできる勾配版を含む,新しい機能的MCMCスキームを提案する。
提案手法は,複数のタスクにおける予測精度と不確実性の両方において,性能の向上を実証する。
論文 参考訳(メタデータ) (2024-09-25T05:23:01Z) - PseudoNeg-MAE: Self-Supervised Point Cloud Learning using Conditional Pseudo-Negative Embeddings [55.55445978692678]
PseudoNeg-MAEは,ポイントマスク自動エンコーダのグローバルな特徴表現を強化する,自己教師型学習フレームワークである。
PseudoNeg-MAE は ModelNet40 と ScanObjectNN のデータセット上で最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2024-09-24T07:57:21Z) - Spectral Convolutional Conditional Neural Processes [4.52069311861025]
条件付きニューラルプロセス(CNP)は、プロセスのパラメータ化にニューラルネットワークの柔軟性を利用する確率モデルの一群である。
本稿では、周波数領域における関数のより効率的な表現を可能にするNPsファミリーに新たに追加されたスペクトル畳み込み条件ニューラルネットワーク(SConvCNPs)を提案する。
論文 参考訳(メタデータ) (2024-04-19T21:13:18Z) - Learning minimal representations of stochastic processes with
variational autoencoders [52.99137594502433]
プロセスを記述するのに必要なパラメータの最小セットを決定するために、教師なしの機械学習アプローチを導入する。
我々の手法はプロセスを記述する未知のパラメータの自律的な発見を可能にする。
論文 参考訳(メタデータ) (2023-07-21T14:25:06Z) - Neural Functional Transformers [99.98750156515437]
本稿では,ニューラルファンクショナルトランスフォーマー (NFT) と呼ばれる新しい変分同変量空間層を定義するために,アテンション機構を用いる。
NFTは重み空間の置換対称性を尊重し、注意の利点を取り入れ、複数の領域で顕著な成功を収めた。
Inr2Arrayは暗黙的ニューラル表現(INR)の重みから置換不変表現を計算する新しい方法である。
論文 参考訳(メタデータ) (2023-05-22T23:38:27Z) - GFlowNet-EM for learning compositional latent variable models [115.96660869630227]
ラテントの後方のモデリングにおける重要なトレードオフは、表現性とトラクタブルな最適化の間にある。
非正規化密度からサンプリングするアルゴリズムであるGFlowNetsを提案する。
GFlowNetsをトレーニングして、後部から潜伏者へのサンプルをトレーニングすることにより、それらの強度をアモータライズされた変分アルゴリズムとして活用する。
論文 参考訳(メタデータ) (2023-02-13T18:24:21Z) - Interrelation of equivariant Gaussian processes and convolutional neural
networks [77.34726150561087]
現在、ニューラルネットワーク(NN)とガウス過程(GP)の関係に基づく機械学習(ML)には、かなり有望な新しい傾向がある。
本研究では、ベクトル値のニューロン活性化を持つ2次元ユークリッド群とそれに対応する独立に導入された同変ガウス過程(GP)との関係を確立する。
論文 参考訳(メタデータ) (2022-09-17T17:02:35Z) - Transformer Neural Processes: Uncertainty-Aware Meta Learning Via
Sequence Modeling [26.377099481072992]
本稿では,不確実性を考慮したメタ学習のためのトランスフォーマーニューラルプロセス(TNP)を提案する。
我々は自己回帰的可能性に基づく目的を通してTNPを学習し、それを新しいトランスフォーマーベースのアーキテクチャでインスタンス化する。
我々は,TNPが様々なベンチマーク問題に対して最先端の性能を達成することを示す。
論文 参考訳(メタデータ) (2022-07-09T02:28:58Z) - Neural Diffusion Processes [12.744250155946503]
そこで我々は, 関数上の豊富な分布から, 有限限界を通してサンプルを学習するニューラル拡散過程 (NDP) を提案する。
我々はNDPが真のベイズ後部に近い機能的分布を捉えることを実証的に示す。
NDPは、回帰、暗黙のハイパーマージン化、非ガウスの後方予測、グローバル最適化など、様々な下流タスクを可能にする。
論文 参考訳(メタデータ) (2022-06-08T16:13:04Z) - Message Passing Neural Processes [3.0969191504482247]
本稿では,モデル内の関係構造を明示的に利用するMPNP(Message Passing Neural Processs)を紹介する。
MPNPは、既存のベンチマークと新たに提案されたCAとCola-Branchedタスクに基づいて、より低いサンプリングレートで成長する。
本稿では、密度に基づくCAルールセットに対する強力な一般化と、任意のラベリングと数発の学習設定に挑戦する際の顕著な向上について報告する。
論文 参考訳(メタデータ) (2020-09-29T09:40:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。