論文の概要: WILTing Trees: Interpreting the Distance Between MPNN Embeddings
- arxiv url: http://arxiv.org/abs/2505.24642v1
- Date: Fri, 30 May 2025 14:28:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-02 19:47:53.002749
- Title: WILTing Trees: Interpreting the Distance Between MPNN Embeddings
- Title(参考訳): WILTing Trees:MPNN埋め込み間の距離を解釈する
- Authors: Masahiro Negishi, Thomas Gärtner, Pascal Welke,
- Abstract要約: 特定のタスクにおけるメッセージパッシングニューラルネットワーク(MPNN)によって学習される距離関数について検討する。
我々はMPNN埋め込み間の距離を解釈可能なグラフ距離に蒸留する。
我々は,MPNNが埋め込みの相対的な位置を,少数の部分グラフに焦点をあてて定義することを実証した。
- 参考スコア(独自算出の注目度): 5.091306993367262
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: We investigate the distance function learned by message passing neural networks (MPNNs) in specific tasks, aiming to capture the functional distance between prediction targets that MPNNs implicitly learn. This contrasts with previous work, which links MPNN distances on arbitrary tasks to structural distances on graphs that ignore task-specific information. To address this gap, we distill the distance between MPNN embeddings into an interpretable graph distance. Our method uses optimal transport on the Weisfeiler Leman Labeling Tree (WILT), where the edge weights reveal subgraphs that strongly influence the distance between embeddings. This approach generalizes two well-known graph kernels and can be computed in linear time. Through extensive experiments, we demonstrate that MPNNs define the relative position of embeddings by focusing on a small set of subgraphs that are known to be functionally important in the domain.
- Abstract(参考訳): 本稿では,MPNNが暗黙的に学習する予測対象間の機能的距離を捉えることを目的として,特定のタスクにおけるメッセージパッシングニューラルネットワーク(MPNN)によって学習される距離関数について検討する。
これは、任意のタスク上のMPNN距離とタスク固有の情報を無視したグラフ上の構造的距離をリンクする以前の研究とは対照的である。
このギャップに対処するために、MPNN埋め込み間の距離を解釈可能なグラフ距離に蒸留する。
本手法はWeisfeiler Leman Labeling Tree (WILT) 上の最適輸送を用いており, エッジ重みは埋め込み間の距離に強く影響を与える部分グラフを明らかにする。
このアプローチは2つのよく知られたグラフカーネルを一般化し、線形時間で計算できる。
広範な実験を通じて,MPNNは,ドメインにおいて機能的に重要な部分グラフの集合に焦点をあてて,埋め込みの相対的な位置を定義する。
関連論文リスト
- Pure Message Passing Can Estimate Common Neighbor for Link Prediction [25.044734252779975]
CN(Common Neighbor)の近似におけるMPNNの習熟度について検討する。
本稿では,新しいリンク予測モデルであるMPLP(Message Passing Link Predictor)を紹介する。
論文 参考訳(メタデータ) (2023-09-02T16:20:41Z) - How does over-squashing affect the power of GNNs? [39.52168593457813]
グラフニューラルネットワーク(GNN)は、グラフ構造化データ上での機械学習のための最先端モデルである。
与えられた容量のMPNNがどのノード特徴の関数クラスを学習できるかを決定するための厳密な分析を提供する。
一対のノード間の十分な通信を保証するために、MPNNの容量は十分大きすぎることを証明する。
論文 参考訳(メタデータ) (2023-06-06T11:15:53Z) - DRew: Dynamically Rewired Message Passing with Delay [7.474662887810221]
グラフの段階的な密度化を保証するために,レイヤ依存のリウィリングを行うフレームワークを提案する。
また,各層と相互距離に依存するノード間の接続をスキップする遅延機構を提案する。
いくつかの長距離タスクに対するアプローチを検証するとともに,グラフトランスフォーマーやマルチホップMPNNよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-05-13T22:47:40Z) - Multi-Target Tracking with Transferable Convolutional Neural Networks [96.00428692404354]
マルチターゲットトラッキングに対処するための畳み込みニューラルネットワークアーキテクチャを提案する。
ターゲット状態とセンサ計測を画像として表現し,画像から画像への予測タスクとして再放送する。
実際に提案した転送可能なCNNアーキテクチャは、MTTタスクのランダム有限集合フィルタを10のターゲットで上回り、250のターゲットで29%の性能改善を施したMTTタスクに再トレーニングすることなく転送を行う。
論文 参考訳(メタデータ) (2022-10-27T15:29:34Z) - Tree Mover's Distance: Bridging Graph Metrics and Stability of Graph
Neural Networks [54.225220638606814]
本稿では,属性グラフの擬似測度,ツリー・モーバー距離(TMD)を提案し,その一般化との関係について検討する。
まず、TMDはグラフ分類に関連する特性をキャプチャし、単純なTMD-SVMは標準のGNNと競合することを示す。
第2に、分散シフトの下でのGNNの一般化とTMDを関連付け、そのようなシフト下での性能低下とよく相関していることを示す。
論文 参考訳(メタデータ) (2022-10-04T21:03:52Z) - Dynamic Graph Message Passing Networks for Visual Recognition [112.49513303433606]
長距離依存のモデリングは、コンピュータビジョンにおけるシーン理解タスクに不可欠である。
完全連結グラフはそのようなモデリングには有益であるが、計算オーバーヘッドは禁じられている。
本稿では,計算複雑性を大幅に低減する動的グラフメッセージパッシングネットワークを提案する。
論文 参考訳(メタデータ) (2022-09-20T14:41:37Z) - Automatic Relation-aware Graph Network Proliferation [182.30735195376792]
GNNを効率的に検索するためのARGNP(Automatic Relation-Aware Graph Network Proliferation)を提案する。
これらの操作は階層的なノード/リレーショナル情報を抽出し、グラフ上のメッセージパッシングのための異方的ガイダンスを提供する。
4つのグラフ学習タスクのための6つのデータセットの実験により、我々の手法によって生成されたGNNは、現在最先端の手作りおよび検索に基づくGNNよりも優れていることが示された。
論文 参考訳(メタデータ) (2022-05-31T10:38:04Z) - Discovering the Representation Bottleneck of Graph Neural Networks from
Multi-order Interactions [51.597480162777074]
グラフニューラルネットワーク(GNN)は、ノード機能を伝搬し、インタラクションを構築するためにメッセージパッシングパラダイムに依存している。
最近の研究は、異なるグラフ学習タスクはノード間の異なる範囲の相互作用を必要とすることを指摘している。
科学領域における2つの共通グラフ構築法、すなわち、emphK-nearest neighbor(KNN)グラフとemphfully-connected(FC)グラフについて検討する。
論文 参考訳(メタデータ) (2022-05-15T11:38:14Z) - An Information-Geometric Distance on the Space of Tasks [31.359578768463752]
本稿では,データとラベルの共分散としてモデル化された学習課題間の距離を規定する。
そこで,本研究では,対象タスクのデータに対する残差を反復的に伝達する距離を計算するアルゴリズムを開発した。
様々な画像分類データセットに対して徹底的な実証検証と解析を行い、結合転送距離が微調整の難しさと強く相関していることを示す。
論文 参考訳(メタデータ) (2020-11-01T19:48:39Z) - Distance Encoding: Design Provably More Powerful Neural Networks for
Graph Representation Learning [63.97983530843762]
グラフニューラルネットワーク(GNN)はグラフ表現学習において大きな成功を収めている。
GNNは、実際には非常に異なるグラフ部分構造に対して同一の表現を生成する。
より強力なGNNは、最近高階試験を模倣して提案され、基礎となるグラフ構造を疎結合にできないため、非効率である。
本稿では,グラフ表現学習の新たなクラスとして距離分解(DE)を提案する。
論文 参考訳(メタデータ) (2020-08-31T23:15:40Z) - Isometric Graph Neural Networks [5.306334746787569]
我々はIsometric Graph Neural Networks (IGNN) の学習手法を提案する。
IGNNは、任意のGNNアルゴリズムがノード間の距離を反映した表現を生成するために、入力表現空間と損失関数を変更する必要がある。
我々はケンドールのタウ(KT)の400%まで、一貫した実質的な改善を観察する。
論文 参考訳(メタデータ) (2020-06-16T22:51:13Z) - SkipGNN: Predicting Molecular Interactions with Skip-Graph Networks [70.64925872964416]
分子間相互作用の予測のためのグラフニューラルネットワークSkipGNNを提案する。
SkipGNNは直接相互作用からの情報だけでなく、二階相互作用からも情報を収集することで分子間相互作用を予測する。
また,SkipGNNは,既存の手法を最大28.8%上回り,優れた,堅牢な性能を実現していることを示す。
論文 参考訳(メタデータ) (2020-04-30T16:55:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。