論文の概要: The Weisfeiler-Lehman Distance: Reinterpretation and Connection with
GNNs
- arxiv url: http://arxiv.org/abs/2302.00713v1
- Date: Wed, 1 Feb 2023 19:13:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-03 16:26:18.418387
- Title: The Weisfeiler-Lehman Distance: Reinterpretation and Connection with
GNNs
- Title(参考訳): Weisfeiler-Lehman距離:再解釈とGNNとのつながり
- Authors: Samantha Chen, Sunhyuk Lim, Facundo M\'emoli, Zhengchao Wan, and Yusu
Wang
- Abstract要約: Wesfeiler-Lehman (WL) 距離の新たな解釈を陳らによって紹介する(2022年)。
WL距離はグラフとノードの特徴を比較することを目的としており、古典的なWeisfeiler-Lehmanグラフ同型テストと同じ離散パワーを持ち、グロモフ-ワッサーシュタイン距離と深い関係を持つ。
- 参考スコア(独自算出の注目度): 7.589578391124951
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we present a novel interpretation of the so-called
Weisfeiler-Lehman (WL) distance, introduced by Chen et al. (2022), using
concepts from stochastic processes. The WL distance aims at comparing graphs
with node features, has the same discriminative power as the classic
Weisfeiler-Lehman graph isomorphism test and has deep connections to the
Gromov-Wasserstein distance. This new interpretation connects the WL distance
to the literature on distances for stochastic processes, which also makes the
interpretation of the distance more accessible and intuitive. We further
explore the connections between the WL distance and certain Message Passing
Neural Networks, and discuss the implications of the WL distance for
understanding the Lipschitz property and the universal approximation results
for these networks.
- Abstract(参考訳): 本稿では,2022年にchenらによって導入されたweisfeiler-lehman (wl) 距離の新たな解釈について,確率過程の概念を用いて述べる。
WL距離はグラフとノードの特徴を比較することを目的としており、古典的なWeisfeiler-Lehmanグラフ同型テストと同じ識別力を持ち、グロモフ-ワッサーシュタイン距離と深い関係を持つ。
この新たな解釈は、WL距離と確率過程の距離に関する文献を結びつけ、距離の解釈をより分かりやすく直感的にする。
さらに、WL距離と特定のメッセージパッシングニューラルネットワークの接続について検討し、これらのネットワークのリプシッツ特性と普遍近似結果を理解するためのWL距離の影響について考察する。
関連論文リスト
- Weisfeiler and Leman Go Measurement Modeling: Probing the Validity of the WL Test [58.1543112860658]
グラフ機械学習実践者の表現力概念化と$k$-WLとの相違を明らかにする。
ベンチマークに基づく表現力の拡張的定義と測定について論じる。
論文 参考訳(メタデータ) (2023-07-11T20:06:12Z) - Distances for Markov Chains, and Their Differentiation [6.534615862914506]
ノード属性を持つ有向グラフを持つマルコフ連鎖の距離を生成する統一的なフレームワークを提案する。
割引されたWL距離は理論的性質に優れており,既存のOTCおよびWL距離のいくつかの制限に対処できることを示す。
論文 参考訳(メタデータ) (2023-02-16T23:14:40Z) - WL-Align: Weisfeiler-Lehman Relabeling for Aligning Users across
Networks via Regularized Representation Learning [30.813780339024724]
WL-Align は "across-network Weisfeiler-Lehman relabeling" と "proximity-serving representation learning" の交互相のアライメントを学習する
実世界のデータセットと合成データセットの実験により、提案したWL-Alignは最先端の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2022-12-29T06:02:05Z) - Wasserstein Graph Distance Based on $L_1$-Approximated Tree Edit
Distance between Weisfeiler-Lehman Subtrees [17.855077077275567]
Weisfeiler-Lehman (WL) テストはグラフ機械学習において広く使われているアルゴリズムである。
この問題に対処するために,WWLS(Wasserstein WL Subtree)距離と呼ばれる新しいグラフ測度を提案する。
提案したWWLS距離は,計量検証およびグラフ分類実験において,ベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2022-07-09T07:45:16Z) - Two-Dimensional Weisfeiler-Lehman Graph Neural Networks for Link
Prediction [61.01337335214126]
グラフニューラルネットワーク(GNN)のリンク予測
リンク予測のためのほとんどの既存のGNNは、1次元Weisfeiler-Lehman (1-WL) テストに基づいている。
テキスト2次元Weisfeiler-Lehman (2-WL) テストに基づいて,ノード対(リンク)表現を直接取得可能な,まったく異なるアプローチを提案する。
論文 参考訳(メタデータ) (2022-06-20T04:50:38Z) - Deep Architecture Connectivity Matters for Its Convergence: A
Fine-Grained Analysis [94.64007376939735]
我々は、勾配降下訓練におけるディープニューラルネットワーク(DNN)の収束に対する接続パターンの影響を理論的に特徴づける。
接続パターンの単純なフィルタリングによって、評価対象のモデルの数を削減できることが示される。
論文 参考訳(メタデータ) (2022-05-11T17:43:54Z) - Weisfeiler-Lehman meets Gromov-Wasserstein [8.142448470345762]
ラベル付きマルコフ連鎖間の距離の概念であるWeisfeiler-Lehman距離を提案する。
WL距離は時間計算可能であり、WLテストとも互換性がある。
LMMC上のニューラルネットワークアーキテクチャを同定し、連続関数の普遍的なw.r.t.連続関数であることが判明した。
論文 参考訳(メタデータ) (2022-02-05T05:53:31Z) - Semantic Communications: Principles and Challenges [59.13318519076149]
本稿では,セマンティックコミュニケーションの概要を紹介する。
シャノン情報理論の簡単なレビューの後、深層学習によって実現される理論、フレームワーク、システム設計とのセマンティックコミュニケーションについて論じる。
論文 参考訳(メタデータ) (2021-12-30T16:32:00Z) - Leveraging Sparse Linear Layers for Debuggable Deep Networks [86.94586860037049]
学習した深い特徴表現に疎い線形モデルを適用することで、よりデバッグ可能なニューラルネットワークを実現する方法を示す。
その結果、スパースな説明は、スプリアス相関を特定し、誤分類を説明し、視覚および言語タスクにおけるモデルバイアスを診断するのに役立ちます。
論文 参考訳(メタデータ) (2021-05-11T08:15:25Z) - Improving the Expressive Power of Graph Neural Network with Tinhofer
Algorithm [3.158346511479111]
グラフニューラルネットワーク(GNN)は、グラフベースのデータ処理のパワーのために急速に進歩している。
ほとんどのGNNはメッセージパッシング方式に従い、その表現力はワイスファイラー・リーマン(WL)テストの識別能力によって数学的に制限される。
本稿では、WLテストの限界を理論的に破るWeisfeiler-Lehman-Tinhofer GNN(WLT-GNN)と呼ばれるメッセージパッシング方式のバリエーションを提案する。
論文 参考訳(メタデータ) (2021-04-05T10:54:22Z) - Improving Graph Neural Network Expressivity via Subgraph Isomorphism
Counting [63.04999833264299]
グラフサブストラクチャネットワーク(GSN)は,サブストラクチャエンコーディングに基づくトポロジ的に認識可能なメッセージパッシング方式である。
Wesfeiler-Leman (WL) グラフ同型テストよりも厳密に表現可能であることを示す。
グラフ分類と回帰タスクについて広範囲に評価を行い、様々な実世界の環境において最先端の結果を得る。
論文 参考訳(メタデータ) (2020-06-16T15:30:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。