論文の概要: Uncertainty Modeling in Graph Neural Networks via Stochastic Differential Equations
- arxiv url: http://arxiv.org/abs/2408.16115v4
- Date: Tue, 25 Feb 2025 16:34:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-26 15:19:51.727230
- Title: Uncertainty Modeling in Graph Neural Networks via Stochastic Differential Equations
- Title(参考訳): 確率微分方程式によるグラフニューラルネットワークの不確かさモデリング
- Authors: Richard Bergna, Sergio Calvo-Ordoñez, Felix L. Opolka, Pietro Liò, Jose Miguel Hernandez-Lobato,
- Abstract要約: グラフ構造化データに対する不確実性認識表現の学習問題に対処するために,Latent Graph Neural Differential Equations (LGNSDE)を導入する。
我々は、潜在空間の分散がモデル出力の分散を束縛していることを証明し、不確実性推定に対する理論的に妥当な保証を与える。
本フレームワークは,LGNSDEが不確実性を確実に定量化できることを前提として,分布外検出,ノイズに対する堅牢性,アクティブラーニングに競争力がある。
- 参考スコア(独自算出の注目度): 14.422150854883453
- License:
- Abstract: We propose a novel Stochastic Differential Equation (SDE) framework to address the problem of learning uncertainty-aware representations for graph-structured data. While Graph Neural Ordinary Differential Equations (GNODEs) have shown promise in learning node representations, they lack the ability to quantify uncertainty. To address this, we introduce Latent Graph Neural Stochastic Differential Equations (LGNSDE), which enhance GNODE by embedding randomness through a Bayesian prior-posterior mechanism for epistemic uncertainty and Brownian motion for aleatoric uncertainty. By leveraging the existence and uniqueness of solutions to graph-based SDEs, we prove that the variance of the latent space bounds the variance of model outputs, thereby providing theoretically sensible guarantees for the uncertainty estimates. Furthermore, we show mathematically that LGNSDEs are robust to small perturbations in the input, maintaining stability over time. Empirical results across several benchmarks demonstrate that our framework is competitive in out-of-distribution detection, robustness to noise, and active learning, underscoring the ability of LGNSDEs to quantify uncertainty reliably.
- Abstract(参考訳): 本稿では,グラフ構造化データに対する不確実性認識表現の学習問題に対処する新しい確率微分方程式(SDE)フレームワークを提案する。
Graph Neural Ordinary Differential Equations (GNODE)はノード表現の学習において有望であるが、不確実性を定量化する能力は欠如している。
この問題に対処するために、我々は、ベイズ的先天的不確実性のための先天的メカニズムとアレタリック不確実性のためのブラウン運動により、GNODEを埋め込むことにより、Latent Graph Neural Stochastic Differential Equations (LGNSDE)を導入し、GNODEを増強する。
グラフベースのSDEに対する解の存在と一意性を利用して、潜在空間の分散がモデル出力の分散に結びつくことを証明し、不確実性推定に対する理論的に妥当な保証を与える。
さらに,LGNSDEは入力中の小さな摂動に対して頑健であり,時間とともに安定性が保たれることを示す。
いくつかのベンチマークで実証された結果から,LGNSDEが不確実性を確実に定量化する能力は,分布外検出,ノイズに対する堅牢性,アクティブラーニングにおいて,我々のフレームワークが競争力を持っていることが示唆された。
関連論文リスト
- Evidential Physics-Informed Neural Networks [0.0]
本稿では,エビデンシャル・ディープ・ラーニングの原理に基づいて定式化された物理インフォームド・ニューラル・ニューラルネットワークの新たなクラスを提案する。
1次元および2次元非線形微分方程式を含む逆問題に対して、我々のモデルを適用する方法を示す。
論文 参考訳(メタデータ) (2025-01-27T10:01:10Z) - Learning Latent Graph Structures and their Uncertainty [63.95971478893842]
グラフニューラルネットワーク(GNN)は、モデル精度を高めるために帰納バイアスとしてリレーショナル情報を使用する。
課題関連関係が不明なため,下流予測タスクを解きながら学習するためのグラフ構造学習手法が提案されている。
論文 参考訳(メタデータ) (2024-05-30T10:49:22Z) - Uncertainty in Graph Neural Networks: A Survey [50.63474656037679]
グラフニューラルネットワーク(GNN)は、様々な現実世界のアプリケーションで広く使われている。
しかし、多様な情報源から生じるGNNの予測的不確実性は、不安定で誤った予測につながる可能性がある。
本調査は,不確実性の観点からGNNの概要を概観することを目的としている。
論文 参考訳(メタデータ) (2024-03-11T21:54:52Z) - Graph Neural Stochastic Differential Equations [3.568455515949288]
グラフニューラル微分方程式(Graph Neural Differential Equations: Graph Neural SDEs)を提案する。
この手法は、ブラウン運動を用いたデータ表現にランダム性を埋め込むことにより、グラフニューラル正規微分方程式(Graph Neural Ordinary Differential Equations, Graph Neural ODEs)を強化する。
我々は、グラフ畳み込みネットワークやグラフニューラルODEといった従来のモデル、特に信頼性予測において、潜在グラフニューラルSDEが超越していることを発見した。
論文 参考訳(メタデータ) (2023-08-23T09:20:38Z) - A General Framework for quantifying Aleatoric and Epistemic uncertainty
in Graph Neural Networks [0.29494468099506893]
Graph Neural Networks(GNN)は、グラフ理論と機械学習をエレガントに統合する強力なフレームワークを提供する。
本稿では,モデル誤差と測定の不確かさからGNNの予測の不確かさを定量化する問題を考察する。
ベイジアンフレームワークにおける両源の不確実性を扱うための統一的なアプローチを提案する。
論文 参考訳(メタデータ) (2022-05-20T05:25:40Z) - Distributionally Robust Semi-Supervised Learning Over Graphs [68.29280230284712]
グラフ構造化データに対する半教師付き学習(SSL)は、多くのネットワークサイエンスアプリケーションに現れる。
グラフ上の学習を効率的に管理するために,近年,グラフニューラルネットワーク(GNN)の変種が開発されている。
実際に成功したにも拘わらず、既存の手法のほとんどは、不確実な結節属性を持つグラフを扱うことができない。
ノイズ測定によって得られたデータに関連する分布の不確実性によっても問題が発生する。
分散ロバストな学習フレームワークを開発し,摂動に対する定量的ロバスト性を示すモデルを訓練する。
論文 参考訳(メタデータ) (2021-10-20T14:23:54Z) - Stability of Graph Convolutional Neural Networks to Stochastic
Perturbations [122.12962842842349]
グラフ畳み込みニューラルネットワーク(GCNN)は、ネットワークデータから表現を学ぶ非線形処理ツールである。
現在の分析では決定論的摂動を考慮しているが、トポロジカルな変化がランダムである場合、関連する洞察を与えられない。
本稿では,リンク損失に起因する乱れグラフ摂動に対するGCNNの安定性について検討する。
論文 参考訳(メタデータ) (2021-06-19T16:25:28Z) - Compositional Modeling of Nonlinear Dynamical Systems with ODE-based
Random Features [0.0]
この問題に対処するための新しいドメインに依存しないアプローチを提案する。
我々は、通常の微分方程式から導かれる物理インフォームド・ランダムな特徴の合成を用いる。
提案手法は,ベンチマーク回帰タスクにおいて,他の多くの確率モデルに匹敵する性能を実現する。
論文 参考訳(メタデータ) (2021-06-10T17:55:13Z) - Stochastic Graph Recurrent Neural Network [6.656993023468793]
本稿では,ノード属性とトポロジの進化を同時に捉えるために潜時変数を適用した新しいニューラルアーキテクチャであるSGRNNを提案する。
具体的には、決定論的状態は、相互干渉を抑制する反復過程において状態から分離される。
実世界のデータセットを用いた実験により,提案モデルの有効性が示された。
論文 参考訳(メタデータ) (2020-09-01T16:14:30Z) - Stochastic Graph Neural Networks [123.39024384275054]
グラフニューラルネットワーク(GNN)は、分散エージェント調整、制御、計画に応用したグラフデータの非線形表現をモデル化する。
現在のGNNアーキテクチャは理想的なシナリオを前提として,環境やヒューマンファクタ,あるいは外部攻撃によるリンク変動を無視している。
これらの状況において、GNNは、トポロジカルなランダム性を考慮していない場合、その分散タスクに対処することができない。
論文 参考訳(メタデータ) (2020-06-04T08:00:00Z) - Stochasticity in Neural ODEs: An Empirical Study [68.8204255655161]
ニューラルネットワークの正規化(ドロップアウトなど)は、より高度な一般化を可能にするディープラーニングの広範な技術である。
トレーニング中のデータ拡張は、同じモデルの決定論的およびバージョンの両方のパフォーマンスを向上させることを示す。
しかし、データ拡張によって得られる改善により、経験的正規化の利得は完全に排除され、ニューラルODEとニューラルSDEの性能は無視される。
論文 参考訳(メタデータ) (2020-02-22T22:12:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。