論文の概要: Differential equation and probability inspired graph neural networks for latent variable learning
- arxiv url: http://arxiv.org/abs/2202.13800v3
- Date: Wed, 12 Feb 2025 17:18:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-14 13:45:16.587883
- Title: Differential equation and probability inspired graph neural networks for latent variable learning
- Title(参考訳): 潜在変数学習のための微分方程式と確率インスピレーショングラフニューラルネットワーク
- Authors: Zhuangwei Shi,
- Abstract要約: 部分空間学習は、低次元部分空間上の高次元特徴をマッピングし、効率的な表現を捉える。
本稿では,変分推論と微分方程式による部分空間学習問題の解法として,グラフニューラルネットワークのノートと提案を行う。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Probabilistic theory and differential equation are powerful tools for the interpretability and guidance of the design of machine learning models, especially for illuminating the mathematical motivation of learning latent variable from observation. Subspace learning maps high-dimensional features on low-dimensional subspace to capture efficient representation. Graphs are widely applied for modeling latent variable learning problems, and graph neural networks implement deep learning architectures on graphs. Inspired by probabilistic theory and differential equations, this paper conducts notes and proposals about graph neural networks to solve subspace learning problems by variational inference and differential equation.
- Abstract(参考訳): 確率論と微分方程式は、機械学習モデルの設計の解釈可能性とガイダンスのための強力なツールであり、特に観測から潜伏変数を学習する数学的動機を照らすためのものである。
部分空間学習は、低次元部分空間上の高次元特徴をマッピングし、効率的な表現を捉える。
グラフは潜在変数学習問題のモデル化に広く応用されており、グラフニューラルネットワークはグラフ上にディープラーニングアーキテクチャを実装している。
本稿では,確率論的理論と微分方程式に着想を得て,変分推論と微分方程式による部分空間学習問題の解法として,グラフニューラルネットワークのノートと提案を行う。
関連論文リスト
- Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - Mechanistic Neural Networks for Scientific Machine Learning [58.99592521721158]
我々は、科学における機械学習応用のためのニューラルネットワーク設計であるメカニスティックニューラルネットワークを提案する。
新しいメカニスティックブロックを標準アーキテクチャに組み込んで、微分方程式を表現として明示的に学習する。
我々のアプローチの中心は、線形プログラムを解くために線形ODEを解く技術に着想を得た、新しい線形計画解法(NeuRLP)である。
論文 参考訳(メタデータ) (2024-02-20T15:23:24Z) - A charge-preserving method for solving graph neural diffusion networks [0.0]
本稿では,グラフニューラルネットワーク(GNN)モデルに基づく拡散問題の数学的解釈について述べる。
進化の流れに沿って電荷値とそれらの保存を知っていれば、GNNや他のネットワークが学習能力でどのように機能するかを理解することができる。
論文 参考訳(メタデータ) (2023-12-16T01:06:31Z) - Advective Diffusion Transformers for Topological Generalization in Graph
Learning [69.2894350228753]
グラフ拡散方程式は、様々なグラフトポロジーの存在下で、どのように外挿して一般化するかを示す。
本稿では,新たなグラフエンコーダのバックボーンであるAdvective Diffusion Transformer (ADiT)を提案する。
論文 参考訳(メタデータ) (2023-10-10T08:40:47Z) - Joint Feature and Differentiable $ k $-NN Graph Learning using Dirichlet
Energy [103.74640329539389]
特徴選択と識別可能な$k $-NNグラフ学習を同時に行うディープFS法を提案する。
我々は、ニューラルネットワークで$ k $-NNグラフを学習する際の非微分可能性問題に対処するために、最適輸送理論を用いる。
本モデルの有効性を,合成データセットと実世界のデータセットの両方で広範な実験により検証する。
論文 参考訳(メタデータ) (2023-05-21T08:15:55Z) - Unsupervised Legendre-Galerkin Neural Network for Stiff Partial
Differential Equations [9.659504024299896]
本稿では,Regendre-Galerkinニューラルネットワークに基づく教師なし機械学習アルゴリズムを提案する。
提案したニューラルネットワークは、境界層挙動を有する特異摂動PDEと同様に、一般的な1Dおよび2DPDEに適用される。
論文 参考訳(メタデータ) (2022-07-21T00:47:47Z) - Contrastive Brain Network Learning via Hierarchical Signed Graph Pooling
Model [64.29487107585665]
脳機能ネットワーク上のグラフ表現学習技術は、臨床表現型および神経変性疾患のための新しいバイオマーカーの発見を容易にする。
本稿では,脳機能ネットワークからグラフレベル表現を抽出する階層型グラフ表現学習モデルを提案する。
また、モデルの性能をさらに向上させるために、機能的脳ネットワークデータをコントラスト学習のために拡張する新たな戦略を提案する。
論文 参考訳(メタデータ) (2022-07-14T20:03:52Z) - Graph network for simultaneous learning of forward and inverse physics [0.0]
本稿では,解釈可能な帰納バイアスを用いて粒子物理学の前方および逆モデルを学ぶエンド・ツー・エンドグラフネットワークを提案する。
我々の手法は、少なくとも1桁高い精度で前方ダイナミクスを予測できる。
論文 参考訳(メタデータ) (2021-12-13T22:38:09Z) - PDE-GCN: Novel Architectures for Graph Neural Networks Motivated by
Partial Differential Equations [12.53670196903443]
ディープグラフネットワークは、浅いグラフネットワークよりも必ずしもパフォーマンスが良いとは限らない。
この行動は通常、過度に滑らかな現象に起因している。
我々は、この振る舞いを設計によって制御するアーキテクチャのファミリーを提案する。
論文 参考訳(メタデータ) (2021-08-04T09:59:57Z) - E(n) Equivariant Graph Neural Networks [86.75170631724548]
本稿では,E(n)-Equivariant Graph Neural Networks (EGNNs) と呼ばれる回転,翻訳,反射,置換に等価なグラフニューラルネットワークを学習する新しいモデルを提案する。
既存の手法とは対照的に、私たちの仕事は計算的に高価な中間層における高階表現を必要としません。
論文 参考訳(メタデータ) (2021-02-19T10:25:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。