論文の概要: Differential equation and probability inspired graph neural networks for
latent variable learning
- arxiv url: http://arxiv.org/abs/2202.13800v1
- Date: Mon, 28 Feb 2022 13:50:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-01 22:44:04.547222
- Title: Differential equation and probability inspired graph neural networks for
latent variable learning
- Title(参考訳): 潜在変数学習のための微分方程式と確率インスピレーショングラフニューラルネットワーク
- Authors: Zhuangwei Shi
- Abstract要約: 状態推定と部分空間学習は、潜在変数学習における古典的な2つの問題である。
本稿では,状態推定と部分空間学習問題を解決するために,グラフニューラルネットワークを提案する。
実験により、提案したグラフニューラルネットワークが現在の手法よりも優れていることが示された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Probabilistic theory and differential equation are powerful tools for the
interpretability and guidance of the design of machine learning models,
especially for illuminating the mathematical motivation of learning latent
variable from observation. State estimation and subspace learning are two
classical problems in latent variable learning. State estimation solves optimal
value for latent variable (i.e. state) from noised observation. Subspace
learning maps high-dimensional features on low-dimensional subspace to capture
efficient representation. Graphs are widely applied for modeling latent
variable learning problems, and graph neural networks implement deep learning
architectures on graphs. Inspired by probabilistic theory and differential
equations, this paper proposes graph neural networks to solve state estimation
and subspace learning problems. This paper conducts theoretical studies, and
adopts empirical studies on several tasks, including text classification,
protein classification, stock prediction and state estimation for robotics.
Experiments illustrate that the proposed graph neural networks are superior to
the current methods. Source code of this paper is available at
https://github.com/zshicode/Latent-variable-GNN.
- Abstract(参考訳): 確率論と微分方程式は、特に観測から潜在変数を学習する数学的動機づけを照らすために、機械学習モデルの設計の解釈可能性と指導のための強力なツールである。
状態推定と部分空間学習は、潜在変数学習における古典的な2つの問題である。
状態推定は雑音観測から潜時変数(すなわち状態)の最適値を解く。
部分空間学習は低次元部分空間上の高次元特徴をマッピングし、効率的な表現を捉える。
グラフは潜在変数学習問題のモデリングに広く適用されており、グラフニューラルネットワークはグラフにディープラーニングアーキテクチャを実装する。
本稿では,確率論と微分方程式に着想を得て,状態推定と部分空間学習問題を解くグラフニューラルネットワークを提案する。
本稿では, テキスト分類, タンパク質分類, 在庫予測, 状態推定など, ロボット工学のいくつかの課題について実証研究を行う。
実験により、提案したグラフニューラルネットワークが現在の手法よりも優れていることが示された。
本論文のソースコードはhttps://github.com/zshicode/Latent-variable-GNNで公開されている。
関連論文リスト
- Information plane and compression-gnostic feedback in quantum machine learning [0.0]
ニューラルネットワークの学習力学を研究するための解析ツールとして,情報平面が提案されている。
モデルが入力データをどれだけ圧縮するかについての知見を学習アルゴリズムの改善に利用することができるかを検討する。
本稿では,変分量子回路を用いたいくつかの分類および回帰タスクについて,提案した学習アルゴリズムをベンチマークする。
論文 参考訳(メタデータ) (2024-11-04T17:38:46Z) - Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - Mechanistic Neural Networks for Scientific Machine Learning [58.99592521721158]
我々は、科学における機械学習応用のためのニューラルネットワーク設計であるメカニスティックニューラルネットワークを提案する。
新しいメカニスティックブロックを標準アーキテクチャに組み込んで、微分方程式を表現として明示的に学習する。
我々のアプローチの中心は、線形プログラムを解くために線形ODEを解く技術に着想を得た、新しい線形計画解法(NeuRLP)である。
論文 参考訳(メタデータ) (2024-02-20T15:23:24Z) - Utility-Probability Duality of Neural Networks [4.871730595406078]
本稿では,ディープラーニングにおける標準教師あり学習手順に対するユーティリティに基づく代替的説明を提案する。
基本的な考え方は、学習したニューラルネットワークを確率モデルではなく、順序付きユーティリティ関数として解釈することである。
ソフトマックス出力を持つ全てのニューラルネットワークに対して、最大推定値のSGD学習ダイナミクスを反復過程と見なすことができる。
論文 参考訳(メタデータ) (2023-05-24T08:09:07Z) - Joint Feature and Differentiable $ k $-NN Graph Learning using Dirichlet
Energy [103.74640329539389]
特徴選択と識別可能な$k $-NNグラフ学習を同時に行うディープFS法を提案する。
我々は、ニューラルネットワークで$ k $-NNグラフを学習する際の非微分可能性問題に対処するために、最適輸送理論を用いる。
本モデルの有効性を,合成データセットと実世界のデータセットの両方で広範な実験により検証する。
論文 参考訳(メタデータ) (2023-05-21T08:15:55Z) - Contrastive Brain Network Learning via Hierarchical Signed Graph Pooling
Model [64.29487107585665]
脳機能ネットワーク上のグラフ表現学習技術は、臨床表現型および神経変性疾患のための新しいバイオマーカーの発見を容易にする。
本稿では,脳機能ネットワークからグラフレベル表現を抽出する階層型グラフ表現学習モデルを提案する。
また、モデルの性能をさらに向上させるために、機能的脳ネットワークデータをコントラスト学習のために拡張する新たな戦略を提案する。
論文 参考訳(メタデータ) (2022-07-14T20:03:52Z) - Bayesian Deep Learning for Graphs [6.497816402045099]
論文は、この分野のほとんどのメソッドが構築される原則のレビューから始まり、続いてグラフ分類問題の研究が続く。
そこから、ディープアーキテクチャを漸進的に構築することで、グラフのディープラーニングに関する基本的なアイデアをベイジアンの世界に橋渡しします。
このフレームワークにより、離散的かつ連続的なエッジ特徴を持つグラフを考慮し、いくつかの分類タスクで最先端に達するのに十分な教師なしの埋め込みを生成することができる。
論文 参考訳(メタデータ) (2022-02-24T20:18:41Z) - Graph network for simultaneous learning of forward and inverse physics [0.0]
本稿では,解釈可能な帰納バイアスを用いて粒子物理学の前方および逆モデルを学ぶエンド・ツー・エンドグラフネットワークを提案する。
我々の手法は、少なくとも1桁高い精度で前方ダイナミクスを予測できる。
論文 参考訳(メタデータ) (2021-12-13T22:38:09Z) - The Neural Coding Framework for Learning Generative Models [91.0357317238509]
本稿では,脳の予測処理理論に触発された新しい神経生成モデルを提案する。
同様に、私たちの生成モデルにおける人工ニューロンは、隣接するニューロンが何をするかを予測し、予測が現実にどの程度一致するかに基づいてパラメータを調整します。
論文 参考訳(メタデータ) (2020-12-07T01:20:38Z) - A Heterogeneous Graph with Factual, Temporal and Logical Knowledge for
Question Answering Over Dynamic Contexts [81.4757750425247]
動的テキスト環境における質問応答について検討する。
構築したグラフ上にグラフニューラルネットワークを構築し,エンドツーエンドでモデルをトレーニングする。
論文 参考訳(メタデータ) (2020-04-25T04:53:54Z) - Mean-Field and Kinetic Descriptions of Neural Differential Equations [0.0]
この研究では、ニューラルネットワークの特定のクラス、すなわち残留ニューラルネットワークに焦点を当てる。
我々は、ネットワークのパラメータ、すなわち重みとバイアスに関する定常状態と感度を分析する。
残留ニューラルネットワークにインスパイアされた微視的ダイナミクスの修正は、ネットワークのフォッカー・プランクの定式化につながる。
論文 参考訳(メタデータ) (2020-01-07T13:41:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。