論文の概要: Tree Mover's Distance: Bridging Graph Metrics and Stability of Graph
Neural Networks
- arxiv url: http://arxiv.org/abs/2210.01906v1
- Date: Tue, 4 Oct 2022 21:03:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-06 13:15:52.772264
- Title: Tree Mover's Distance: Bridging Graph Metrics and Stability of Graph
Neural Networks
- Title(参考訳): Tree Moverの距離:グラフメトリックのブリッジングとグラフニューラルネットワークの安定性
- Authors: Ching-Yao Chuang, Stefanie Jegelka
- Abstract要約: 本稿では,属性グラフの擬似測度,ツリー・モーバー距離(TMD)を提案し,その一般化との関係について検討する。
まず、TMDはグラフ分類に関連する特性をキャプチャし、単純なTMD-SVMは標準のGNNと競合することを示す。
第2に、分散シフトの下でのGNNの一般化とTMDを関連付け、そのようなシフト下での性能低下とよく相関していることを示す。
- 参考スコア(独自算出の注目度): 54.225220638606814
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Understanding generalization and robustness of machine learning models
fundamentally relies on assuming an appropriate metric on the data space.
Identifying such a metric is particularly challenging for non-Euclidean data
such as graphs. Here, we propose a pseudometric for attributed graphs, the Tree
Mover's Distance (TMD), and study its relation to generalization. Via a
hierarchical optimal transport problem, TMD reflects the local distribution of
node attributes as well as the distribution of local computation trees, which
are known to be decisive for the learning behavior of graph neural networks
(GNNs). First, we show that TMD captures properties relevant to graph
classification: a simple TMD-SVM performs competitively with standard GNNs.
Second, we relate TMD to generalization of GNNs under distribution shifts, and
show that it correlates well with performance drop under such shifts.
- Abstract(参考訳): 機械学習モデルの一般化と堅牢性を理解するには、データ空間に適切なメトリックを仮定することが必要だ。
このようなメトリックを特定することは、グラフのような非ユークリッドデータにとって特に難しい。
本稿では,属性グラフの擬測度,ツリー・モーバー距離(TMD)を提案し,その一般化との関係について検討する。
階層的最適輸送問題を通じて、tmdはノード属性の局所分布と、グラフニューラルネットワーク(gnns)の学習行動に決定的であることが知られている局所計算木の分布を反映している。
まず、TMDはグラフ分類に関連する特性をキャプチャし、単純なTMD-SVMは標準のGNNと競合することを示す。
第2に,分布シフト下でのgnnの一般化にtmdを関連づけ,そのようなシフト下での性能低下とよく相関することを示す。
関連論文リスト
- Graph Out-of-Distribution Generalization via Causal Intervention [69.70137479660113]
本稿では,ノードレベルの分散シフトの下で頑健なグラフニューラルネットワーク(GNN)をトレーニングするための,概念的に単純だが原則化されたアプローチを提案する。
本手法は,環境推定器と熟練GNN予測器を協調する因果推論に基づく新たな学習目標を提案する。
本モデルでは,様々な分散シフトによる一般化を効果的に向上し,グラフOOD一般化ベンチマーク上での最先端の精度を最大27.4%向上させることができる。
論文 参考訳(メタデータ) (2024-02-18T07:49:22Z) - Towards Robust Fidelity for Evaluating Explainability of Graph Neural Networks [32.345435955298825]
グラフニューラルネットワーク(GNN)は、グラフノード間のメッセージパッシングを介してグラフィカルデータの依存性構造を利用するニューラルネットワークである。
GNN説明可能性の研究における主な課題は、これらの説明機能の性能を評価するための忠実度尺度を提供することである。
本稿では,この基礎的課題について考察し,その限界を浮き彫りにする。
論文 参考訳(メタデータ) (2023-10-03T06:25:14Z) - Graph Out-of-Distribution Generalization with Controllable Data
Augmentation [51.17476258673232]
グラフニューラルネットワーク(GNN)は,グラフ特性の分類において異常な性能を示した。
トレーニングとテストデータの選択バイアスが原因で、分散偏差が広まっています。
仮想サンプルの分布偏差を測定するためのOODキャリブレーションを提案する。
論文 参考訳(メタデータ) (2023-08-16T13:10:27Z) - Implicit Graph Neural Diffusion Networks: Convergence, Generalization,
and Over-Smoothing [7.984586585987328]
Inlicit Graph Neural Networks (GNN)は、グラフ学習問題に対処する上で大きな成功を収めた。
パラメータ化グラフラプラシアン演算子に基づく暗黙グラフ拡散層を設計するための幾何学的枠組みを提案する。
ディリクレエネルギー最小化問題の固定点方程式として, 暗黙のGNN層がどう見えるかを示す。
論文 参考訳(メタデータ) (2023-08-07T05:22:33Z) - MentorGNN: Deriving Curriculum for Pre-Training GNNs [61.97574489259085]
本稿では,グラフ間のGNNの事前学習プロセスの監視を目的とした,MentorGNNというエンドツーエンドモデルを提案する。
我々は、事前学習したGNNの一般化誤差に自然かつ解釈可能な上限を導出することにより、関係データ(グラフ)に対するドメイン適応の問題に新たな光を当てた。
論文 参考訳(メタデータ) (2022-08-21T15:12:08Z) - OOD-GNN: Out-of-Distribution Generalized Graph Neural Network [73.67049248445277]
グラフニューラルネットワーク(GNN)は、グラフデータのテストとトレーニングを同一の分布から行うことで、優れたパフォーマンスを実現している。
既存のGNNでは、テストとグラフデータのトレーニングの間に分散シフトが存在する場合、その性能が著しく低下する。
本稿では,学習グラフと異なる分布を持つ未確認試験グラフに対して,満足な性能を実現するために,アウト・オブ・ディストリビューション一般化グラフニューラルネットワーク(OOD-GNN)を提案する。
論文 参考訳(メタデータ) (2021-12-07T16:29:10Z) - Graph Networks with Spectral Message Passing [1.0742675209112622]
本稿では,空間領域とスペクトル領域の両方にメッセージパッシングを適用するSpectral Graph Networkを紹介する。
その結果,spectrum gnは効率のよいトレーニングを促進し,より多くのパラメータを持つにもかかわらず,少ないトレーニングイテレーションで高いパフォーマンスを達成できることがわかった。
論文 参考訳(メタデータ) (2020-12-31T21:33:17Z) - Graphs, Convolutions, and Neural Networks: From Graph Filters to Graph
Neural Networks [183.97265247061847]
我々はグラフ信号処理を活用してグラフニューラルネットワーク(GNN)の表現空間を特徴付ける。
GNNにおけるグラフ畳み込みフィルタの役割について議論し、そのようなフィルタで構築されたアーキテクチャは、置換同値の基本的な性質と位相変化に対する安定性を持つことを示す。
また,ロボット群に対するリコメンデータシステムや分散型コントローラの学習におけるGNNの利用について検討した。
論文 参考訳(メタデータ) (2020-03-08T13:02:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。