論文の概要: Generalizing Weisfeiler-Lehman Kernels to Subgraphs
- arxiv url: http://arxiv.org/abs/2412.02181v1
- Date: Tue, 03 Dec 2024 05:35:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-04 15:47:39.492202
- Title: Generalizing Weisfeiler-Lehman Kernels to Subgraphs
- Title(参考訳): グラフへのWeisfeiler-Lehmanカーネルの一般化
- Authors: Dongkwan Kim, Alice Oh,
- Abstract要約: グラフ表現学習は様々な現実世界の問題を解決するのに有効である。
現在のグラフニューラルネットワーク(GNN)は、サブグラフレベルのタスクに対して最適な結果を生成する。
我々は、$k$-hop近傍にWLアルゴリズムを適用することで、サブグラフに一般化されたカーネルであるWLKSを提案する。
- 参考スコア(独自算出の注目度): 22.066255851756118
- License:
- Abstract: Subgraph representation learning has been effective in solving various real-world problems. However, current graph neural networks (GNNs) produce suboptimal results for subgraph-level tasks due to their inability to capture complex interactions within and between subgraphs. To provide a more expressive and efficient alternative, we propose WLKS, a Weisfeiler-Lehman (WL) kernel generalized for subgraphs by applying the WL algorithm on induced $k$-hop neighborhoods. We combine kernels across different $k$-hop levels to capture richer structural information that is not fully encoded in existing models. Our approach can balance expressiveness and efficiency by eliminating the need for neighborhood sampling. In experiments on eight real-world and synthetic benchmarks, WLKS significantly outperforms leading approaches on five datasets while reducing training time, ranging from 0.01x to 0.25x compared to the state-of-the-art.
- Abstract(参考訳): グラフ表現学習は様々な現実世界の問題を解決するのに有効である。
しかしながら、現在のグラフニューラルネットワーク(GNN)は、サブグラフ内およびサブグラフ間の複雑な相互作用をキャプチャできないため、サブグラフレベルのタスクに対して最適な結果を生成する。
より表現力が高く効率的な代替手段として,$k$-hop近傍にWLアルゴリズムを適用することで,サブグラフに一般化されたWeisfeiler-Lehman(WL)カーネルWLKSを提案する。
カーネルをさまざまな$k$-hopレベルに組み合わせて、既存のモデルで完全にエンコードされていないよりリッチな構造情報をキャプチャします。
提案手法は, 地域サンプリングの必要性を排除し, 表現性と効率のバランスをとることができる。
実世界の8つのベンチマークと合成ベンチマークの実験では、WLKSは5つのデータセットに対する主要なアプローチよりも優れており、トレーニング時間は0.01倍から0.25倍に短縮されている。
関連論文リスト
- Exploring Consistency in Graph Representations:from Graph Kernels to Graph Neural Networks [4.235378870514331]
グラフネットワーク(GNN)は、グラフ表現学習において支配的なアプローチとして現れている。
ニューラルネットワーク手法とカーネルアプローチのギャップを橋渡しし、GNNが学習した表現の構造を一貫してキャプチャできるようにすることで、そのギャップを埋める。
これらの知見に触発されて、GNN層間のグラフ表現の類似性の整合性は、関係構造を捕捉し、グラフ分類性能を向上させる上で重要であると推測した。
論文 参考訳(メタデータ) (2024-10-31T09:07:08Z) - LAMP: Learnable Meta-Path Guided Adversarial Contrastive Learning for Heterogeneous Graphs [22.322402072526927]
Heterogeneous Graph Contrastive Learning (HGCL)は通常、事前に定義されたメタパスを必要とする。
textsfLAMPは様々なメタパスのサブグラフを統一的で安定した構造に統合する。
textsfLAMPは、精度と堅牢性の観点から、既存の最先端の教師なしモデルよりも大幅に優れています。
論文 参考訳(メタデータ) (2024-09-10T08:27:39Z) - VLSI Hypergraph Partitioning with Deep Learning [0.0]
グラフニューラルネットワーク(GNN)は、様々なノード、エッジ、グラフ予測タスクで強いパフォーマンスを示している。
実世界のネットリスト特性をエミュレートする合成分割ベンチマークを新たに導入する。
我々は、GNNベースのアプローチとともに既存の最先端のパーティショニングアルゴリズムを評価し、それぞれの利点とデメリットを強調した。
論文 参考訳(メタデータ) (2024-09-02T17:32:01Z) - Enhanced Expressivity in Graph Neural Networks with Lanczos-Based Linear Constraints [7.605749412696919]
グラフニューラルネットワーク(GNN)はグラフ構造化データの処理に優れるが、リンク予測タスクでは性能が劣ることが多い。
グラフラプラシア行列の固有基底に誘導された部分グラフを埋め込むことによりGNNの表現性を高める新しい手法を提案する。
提案手法は,PubMedとOGBL-Vesselのデータセットから,5%と10%のデータしか必要とせず,20倍と10倍の高速化を実現する。
論文 参考訳(メタデータ) (2024-08-22T12:22:00Z) - Efficient Heterogeneous Graph Learning via Random Projection [58.4138636866903]
不均一グラフニューラルネットワーク(HGNN)は、異種グラフを深層学習するための強力なツールである。
最近のプリ計算ベースのHGNNは、一時間メッセージパッシングを使用して不均一グラフを正規形テンソルに変換する。
我々はRandom Projection Heterogeneous Graph Neural Network (RpHGNN) というハイブリッド計算前HGNNを提案する。
論文 参考訳(メタデータ) (2023-10-23T01:25:44Z) - Label Deconvolution for Node Representation Learning on Large-scale
Attributed Graphs against Learning Bias [75.44877675117749]
本稿では,GNNの逆写像に対する新しい,スケーラブルな近似による学習バイアスを軽減するために,ラベルの効率的な正規化手法,すなわちラベルのデコンボリューション(LD)を提案する。
実験では、LDはOpen Graphデータセットのベンチマークで最先端のメソッドを大幅に上回っている。
論文 参考訳(メタデータ) (2023-09-26T13:09:43Z) - Learning Strong Graph Neural Networks with Weak Information [64.64996100343602]
我々は、弱い情報(GLWI)を用いたグラフ学習問題に対する原則的アプローチを開発する。
非完全構造を持つ入力グラフ上で長距離情報伝搬を行うデュアルチャネルGNNフレームワークであるD$2$PTを提案するが、グローバルな意味的類似性を符号化するグローバルグラフも提案する。
論文 参考訳(メタデータ) (2023-05-29T04:51:09Z) - From Relational Pooling to Subgraph GNNs: A Universal Framework for More
Expressive Graph Neural Networks [8.121462458089141]
メッセージパッシングニューラルネットワークの表現力を向上させるために、ノードにラベルを割り当てる方法を示す。
実験により,本手法は普遍的に互換性があり,任意のベースGNNモデルの表現性を向上させることができることを示した。
私たちの$k,l$-GNNは、多くの合成および実世界のデータセットで優れたパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2023-05-08T18:00:50Z) - Improved Algorithms for Neural Active Learning [74.89097665112621]
非パラメトリックストリーミング設定のためのニューラルネットワーク(NN)ベースの能動学習アルゴリズムの理論的および経験的性能を改善する。
本研究では,SOTA(State-of-the-art (State-the-art)) 関連研究で使用されるものよりも,アクティブラーニングに適する人口減少を最小化することにより,2つの後悔の指標を導入する。
論文 参考訳(メタデータ) (2022-10-02T05:03:38Z) - Nearest Neighbor Zero-Shot Inference [68.56747574377215]
kNN-Promptは、言語モデル(LM)を用いたゼロショット推論のためのk-nearest neighbor (kNN)検索拡張手法である。
ファジィ動詞化器は、各分類ラベルを自然言語トークンのセットに自動的に関連付けることで、下流タスクのスパースkNN分布を利用する。
実験により,kNN-Promptはドメイン適応に有効であり,さらに,kNN検索に使用するモデルのサイズに応じて,検索のメリットが増加することが示された。
論文 参考訳(メタデータ) (2022-05-27T07:00:59Z) - Optimal Propagation for Graph Neural Networks [51.08426265813481]
最適グラフ構造を学習するための二段階最適化手法を提案する。
また、時間的複雑さをさらに軽減するために、低ランク近似モデルについても検討する。
論文 参考訳(メタデータ) (2022-05-06T03:37:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。