論文の概要: Probabilistic Numeric Convolutional Neural Networks
- arxiv url: http://arxiv.org/abs/2010.10876v1
- Date: Wed, 21 Oct 2020 10:08:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 23:15:57.046419
- Title: Probabilistic Numeric Convolutional Neural Networks
- Title(参考訳): 確率的数値畳み込みニューラルネットワーク
- Authors: Marc Finzi, Roberto Bondesan, Max Welling
- Abstract要約: 画像や時系列などの連続的な入力信号は、不規則にサンプリングされたり、値が欠けていたりすることは、既存のディープラーニング手法では困難である。
ガウス過程(GP)として特徴を表す確率的畳み込みニューラルネットワークを提案する。
次に、畳み込み層を、このGP上で定義されたPDEの進化として定義し、次いで非線形性とする。
実験では,SuperPixel-MNISTデータセットの先行技術と医療時間2012データセットの競合性能から,提案手法の誤差を3倍に削減できることが示されている。
- 参考スコア(独自算出の注目度): 80.42120128330411
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Continuous input signals like images and time series that are irregularly
sampled or have missing values are challenging for existing deep learning
methods. Coherently defined feature representations must depend on the values
in unobserved regions of the input. Drawing from the work in probabilistic
numerics, we propose Probabilistic Numeric Convolutional Neural Networks which
represent features as Gaussian processes (GPs), providing a probabilistic
description of discretization error. We then define a convolutional layer as
the evolution of a PDE defined on this GP, followed by a nonlinearity. This
approach also naturally admits steerable equivariant convolutions under e.g.
the rotation group. In experiments we show that our approach yields a $3\times$
reduction of error from the previous state of the art on the SuperPixel-MNIST
dataset and competitive performance on the medical time series dataset
PhysioNet2012.
- Abstract(参考訳): 画像や時系列のような不規則にサンプリングされたり、値が欠けていたりといった連続的な入力信号は、既存のディープラーニング手法では難しい。
コヒーレントに定義された特徴表現は、入力の観測されていない領域の値に依存する必要がある。
本稿では,確率的数値計算における研究から,特徴をガウス過程(gps)として表現する確率的数値畳み込みニューラルネットワークを提案し,離散化誤差の確率論的記述を提供する。
次に、畳み込み層を、このGP上で定義されたPDEの進化として定義し、次いで非線形性とする。
このアプローチは、例えば回転群の下でのステアブル同変畳み込みも自然に認める。
実験では、スーパーピクセル-mnistデータセットの以前の状態と、医療時系列データセット physionet2012 の競合性能から誤差を3\times$で削減できることを示しました。
関連論文リスト
- Data-Driven Abstractions via Binary-Tree Gaussian Processes for Formal Verification [0.22499166814992438]
ガウス過程(GP)回帰に基づく抽象的解は、量子化された誤差を持つデータから潜在システムの表現を学習する能力で人気を博している。
二分木ガウス過程(BTGP)により未知系のマルコフ連鎖モデルを構築することができることを示す。
BTGPの関数空間に真の力学が存在しない場合でも、統一公式による非局在誤差量子化を提供する。
論文 参考訳(メタデータ) (2024-07-15T11:49:44Z) - Spectral Convolutional Conditional Neural Processes [4.52069311861025]
条件付きニューラルプロセス(CNP)は、プロセスのパラメータ化にニューラルネットワークの柔軟性を利用する確率モデルの一群である。
本稿では、周波数領域における関数のより効率的な表現を可能にするNPsファミリーに新たに追加されたスペクトル畳み込み条件ニューラルネットワーク(SConvCNPs)を提案する。
論文 参考訳(メタデータ) (2024-04-19T21:13:18Z) - Geometric Graph Filters and Neural Networks: Limit Properties and
Discriminability Trade-offs [122.06927400759021]
本稿では,グラフニューラルネットワーク (GNN) と多様体ニューラルネットワーク (MNN) の関係について検討する。
これらのグラフ上の畳み込みフィルタとニューラルネットワークが連続多様体上の畳み込みフィルタとニューラルネットワークに収束することを示す。
論文 参考訳(メタデータ) (2023-05-29T08:27:17Z) - Monte Carlo Neural PDE Solver for Learning PDEs via Probabilistic Representation [59.45669299295436]
教師なしニューラルソルバのトレーニングのためのモンテカルロPDEソルバを提案する。
我々は、マクロ現象をランダム粒子のアンサンブルとみなすPDEの確率的表現を用いる。
対流拡散, アレン・カーン, ナヴィエ・ストークス方程式に関する実験により, 精度と効率が著しく向上した。
論文 参考訳(メタデータ) (2023-02-10T08:05:19Z) - Discovering Invariant Rationales for Graph Neural Networks [104.61908788639052]
グラフニューラルネットワーク(GNN)の固有の解釈可能性とは、入力グラフの特徴の小さなサブセットを見つけることである。
本稿では,本質的に解釈可能なGNNを構築するために,不変理性(DIR)を発見するための新しい戦略を提案する。
論文 参考訳(メタデータ) (2022-01-30T16:43:40Z) - Neural ODE Processes [64.10282200111983]
NDP(Neural ODE Process)は、Neural ODEの分布によって決定される新しいプロセスクラスである。
我々のモデルは,少数のデータポイントから低次元システムのダイナミクスを捉えることができることを示す。
論文 参考訳(メタデータ) (2021-03-23T09:32:06Z) - Graph Convolutional Neural Networks for Body Force Prediction [0.0]
グラフベースのデータ駆動モデルを示し、非構造化メッシュ上で定義されたフィールドの推論を行う。
ネットワークは、異なる解像度のフィールドサンプルから推論することができ、各サンプルの測定結果が提示される順序に不変である。
論文 参考訳(メタデータ) (2020-12-03T19:53:47Z) - Probabilistic Circuits for Variational Inference in Discrete Graphical
Models [101.28528515775842]
変分法による離散的グラフィカルモデルの推論は困難である。
エビデンス・ロウアーバウンド(ELBO)を推定するためのサンプリングに基づく多くの手法が提案されている。
Sum Product Networks (SPN) のような確率的回路モデルのトラクタビリティを活用する新しい手法を提案する。
選択的SPNが表現的変動分布として適していることを示し、対象モデルの対数密度が重み付けされた場合、対応するELBOを解析的に計算可能であることを示す。
論文 参考訳(メタデータ) (2020-10-22T05:04:38Z) - Meta-Learning Stationary Stochastic Process Prediction with
Convolutional Neural Processes [32.02612871707347]
提案するConvNPは,ニューラルプロセス(NP)に翻訳等価性を付与し,畳み込み条件NPを拡張して予測分布への依存性を許容する。
本研究では,1DにおけるConvNPの強い性能と一般化能力,回帰画像補完,実時間データを用いた各種タスクについて述べる。
論文 参考訳(メタデータ) (2020-07-02T18:25:27Z) - Latent Transformations for Discrete-Data Normalising Flows [15.005894753472894]
我々は、ある変換を決定論的にパラメータ化するのではなく、潜在変換よりも分布を予測できる非バイアスの代替案を提案する。
変換では、データの限界確率は微分可能であり、スコア関数推定による勾配に基づく学習が可能となる。
決定論的プロキシ勾配と偏りのないスコア関数推定の両方で大きな課題を観測する。
論文 参考訳(メタデータ) (2020-06-11T11:41:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。