論文の概要: Differential equation and probability inspired graph neural networks for
latent variable learning
- arxiv url: http://arxiv.org/abs/2202.13800v1
- Date: Mon, 28 Feb 2022 13:50:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-01 22:44:04.547222
- Title: Differential equation and probability inspired graph neural networks for
latent variable learning
- Title(参考訳): 潜在変数学習のための微分方程式と確率インスピレーショングラフニューラルネットワーク
- Authors: Zhuangwei Shi
- Abstract要約: 状態推定と部分空間学習は、潜在変数学習における古典的な2つの問題である。
本稿では,状態推定と部分空間学習問題を解決するために,グラフニューラルネットワークを提案する。
実験により、提案したグラフニューラルネットワークが現在の手法よりも優れていることが示された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Probabilistic theory and differential equation are powerful tools for the
interpretability and guidance of the design of machine learning models,
especially for illuminating the mathematical motivation of learning latent
variable from observation. State estimation and subspace learning are two
classical problems in latent variable learning. State estimation solves optimal
value for latent variable (i.e. state) from noised observation. Subspace
learning maps high-dimensional features on low-dimensional subspace to capture
efficient representation. Graphs are widely applied for modeling latent
variable learning problems, and graph neural networks implement deep learning
architectures on graphs. Inspired by probabilistic theory and differential
equations, this paper proposes graph neural networks to solve state estimation
and subspace learning problems. This paper conducts theoretical studies, and
adopts empirical studies on several tasks, including text classification,
protein classification, stock prediction and state estimation for robotics.
Experiments illustrate that the proposed graph neural networks are superior to
the current methods. Source code of this paper is available at
https://github.com/zshicode/Latent-variable-GNN.
- Abstract(参考訳): 確率論と微分方程式は、特に観測から潜在変数を学習する数学的動機づけを照らすために、機械学習モデルの設計の解釈可能性と指導のための強力なツールである。
状態推定と部分空間学習は、潜在変数学習における古典的な2つの問題である。
状態推定は雑音観測から潜時変数(すなわち状態)の最適値を解く。
部分空間学習は低次元部分空間上の高次元特徴をマッピングし、効率的な表現を捉える。
グラフは潜在変数学習問題のモデリングに広く適用されており、グラフニューラルネットワークはグラフにディープラーニングアーキテクチャを実装する。
本稿では,確率論と微分方程式に着想を得て,状態推定と部分空間学習問題を解くグラフニューラルネットワークを提案する。
本稿では, テキスト分類, タンパク質分類, 在庫予測, 状態推定など, ロボット工学のいくつかの課題について実証研究を行う。
実験により、提案したグラフニューラルネットワークが現在の手法よりも優れていることが示された。
本論文のソースコードはhttps://github.com/zshicode/Latent-variable-GNNで公開されている。
関連論文リスト
- Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - Mechanistic Neural Networks for Scientific Machine Learning [58.99592521721158]
我々は、科学における機械学習応用のためのニューラルネットワーク設計であるメカニスティックニューラルネットワークを提案する。
新しいメカニスティックブロックを標準アーキテクチャに組み込んで、微分方程式を表現として明示的に学習する。
我々のアプローチの中心は、線形プログラムを解くために線形ODEを解く技術に着想を得た、新しい線形計画解法(NeuRLP)である。
論文 参考訳(メタデータ) (2024-02-20T15:23:24Z) - A charge-preserving method for solving graph neural diffusion networks [0.0]
本稿では,グラフニューラルネットワーク(GNN)モデルに基づく拡散問題の数学的解釈について述べる。
進化の流れに沿って電荷値とそれらの保存を知っていれば、GNNや他のネットワークが学習能力でどのように機能するかを理解することができる。
論文 参考訳(メタデータ) (2023-12-16T01:06:31Z) - Advective Diffusion Transformers for Topological Generalization in Graph
Learning [69.2894350228753]
グラフ拡散方程式は、様々なグラフトポロジーの存在下で、どのように外挿して一般化するかを示す。
本稿では,新たなグラフエンコーダのバックボーンであるAdvective Diffusion Transformer (ADiT)を提案する。
論文 参考訳(メタデータ) (2023-10-10T08:40:47Z) - Joint Feature and Differentiable $ k $-NN Graph Learning using Dirichlet
Energy [103.74640329539389]
特徴選択と識別可能な$k $-NNグラフ学習を同時に行うディープFS法を提案する。
我々は、ニューラルネットワークで$ k $-NNグラフを学習する際の非微分可能性問題に対処するために、最適輸送理論を用いる。
本モデルの有効性を,合成データセットと実世界のデータセットの両方で広範な実験により検証する。
論文 参考訳(メタデータ) (2023-05-21T08:15:55Z) - Unsupervised Legendre-Galerkin Neural Network for Stiff Partial
Differential Equations [9.659504024299896]
本稿では,Regendre-Galerkinニューラルネットワークに基づく教師なし機械学習アルゴリズムを提案する。
提案したニューラルネットワークは、境界層挙動を有する特異摂動PDEと同様に、一般的な1Dおよび2DPDEに適用される。
論文 参考訳(メタデータ) (2022-07-21T00:47:47Z) - Contrastive Brain Network Learning via Hierarchical Signed Graph Pooling
Model [64.29487107585665]
脳機能ネットワーク上のグラフ表現学習技術は、臨床表現型および神経変性疾患のための新しいバイオマーカーの発見を容易にする。
本稿では,脳機能ネットワークからグラフレベル表現を抽出する階層型グラフ表現学習モデルを提案する。
また、モデルの性能をさらに向上させるために、機能的脳ネットワークデータをコントラスト学習のために拡張する新たな戦略を提案する。
論文 参考訳(メタデータ) (2022-07-14T20:03:52Z) - Graph network for simultaneous learning of forward and inverse physics [0.0]
本稿では,解釈可能な帰納バイアスを用いて粒子物理学の前方および逆モデルを学ぶエンド・ツー・エンドグラフネットワークを提案する。
我々の手法は、少なくとも1桁高い精度で前方ダイナミクスを予測できる。
論文 参考訳(メタデータ) (2021-12-13T22:38:09Z) - PDE-GCN: Novel Architectures for Graph Neural Networks Motivated by
Partial Differential Equations [12.53670196903443]
ディープグラフネットワークは、浅いグラフネットワークよりも必ずしもパフォーマンスが良いとは限らない。
この行動は通常、過度に滑らかな現象に起因している。
我々は、この振る舞いを設計によって制御するアーキテクチャのファミリーを提案する。
論文 参考訳(メタデータ) (2021-08-04T09:59:57Z) - E(n) Equivariant Graph Neural Networks [86.75170631724548]
本稿では,E(n)-Equivariant Graph Neural Networks (EGNNs) と呼ばれる回転,翻訳,反射,置換に等価なグラフニューラルネットワークを学習する新しいモデルを提案する。
既存の手法とは対照的に、私たちの仕事は計算的に高価な中間層における高階表現を必要としません。
論文 参考訳(メタデータ) (2021-02-19T10:25:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。