論文の概要: Transferring Social Network Knowledge from Multiple GNN Teachers to Kolmogorov-Arnold Networks
- arxiv url: http://arxiv.org/abs/2508.06663v1
- Date: Fri, 08 Aug 2025 19:26:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-12 21:23:28.496866
- Title: Transferring Social Network Knowledge from Multiple GNN Teachers to Kolmogorov-Arnold Networks
- Title(参考訳): 複数のGNN教師からKolmogorov-Arnoldネットワークへソーシャルネットワークの知識を移す
- Authors: Yuan-Hung Chao, Chia-Hsun Lu, Chih-Ya Shen,
- Abstract要約: Kolmogorov-Arnold Networks (KAN) は強い非線形表現性と効率的な推論を提供する。
我々は、KGAT、KSGC、KAPPNPの3つの新しいモデルにおいて、kansをGAT、SGC、APPNPの3つの一般的なGNNアーキテクチャに統合する。
本研究は,GNN表現性を向上し,グラフのない効率的な推論を可能にするkansの可能性を明らかにするものである。
- 参考スコア(独自算出の注目度): 3.1296907816698996
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph Neural Networks (GNNs) have shown strong performance on graph-structured data, but their reliance on graph connectivity often limits scalability and efficiency. Kolmogorov-Arnold Networks (KANs), a recent architecture with learnable univariate functions, offer strong nonlinear expressiveness and efficient inference. In this work, we integrate KANs into three popular GNN architectures-GAT, SGC, and APPNP-resulting in three new models: KGAT, KSGC, and KAPPNP. We further adopt a multi-teacher knowledge amalgamation framework, where knowledge from multiple KAN-based GNNs is distilled into a graph-independent KAN student model. Experiments on benchmark datasets show that the proposed models improve node classification accuracy, and the knowledge amalgamation approach significantly boosts student model performance. Our findings highlight the potential of KANs for enhancing GNN expressiveness and for enabling efficient, graph-free inference.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、グラフ構造化データに対して強力なパフォーマンスを示しているが、グラフ接続に依存するため、スケーラビリティと効率が制限されることが多い。
Kolmogorov-Arnold Networks (KAN)は、学習可能な単変数関数を持つ最近のアーキテクチャであり、強い非線形表現性と効率的な推論を提供する。
本研究では,KGAT,KSGC,KAPPNPの3つの新しいモデルにおいて,kanをGAT,SGC,APPNPの3つの一般的なGNNアーキテクチャに統合する。
我々はさらに,複数の Kan ベース GNN からの知識をグラフに依存しない Kan 学生モデルに抽出するマルチ教師ナレッジ・アマルガメーション・フレームワークを採用する。
ベンチマークデータセットを用いた実験により,提案モデルではノード分類精度が向上し,知識集約アプローチにより学生モデルの性能が大幅に向上した。
本研究は,GNN表現性を向上し,グラフのない効率的な推論を可能にするkansの可能性を明らかにするものである。
関連論文リスト
- KA-GNN: Kolmogorov-Arnold Graph Neural Networks for Molecular Property Prediction [16.53371673077183]
我々は,最初の非自明なKolmogorov-Arnold Networkベースのグラフニューラルネットワーク(KA-GNN)を提案する。
基本的な考え方は、Kanのユニークなパワーを活用して、ノードの埋め込み、メッセージパッシング、読み取りを含む3つの主要なレベルでGNNアーキテクチャを最適化することだ。
我々のKA-GNNは従来のGNNモデルより優れていることが判明した。
論文 参考訳(メタデータ) (2024-10-15T06:44:57Z) - GNN-SKAN: Harnessing the Power of SwallowKAN to Advance Molecular Representation Learning with GNNs [19.019980841275366]
我々は、KAN(Kolmogorov-Arnold Networks)を統合したGNNの新しいクラスを導入する。
Kanは、その堅牢なデータ適合能力と、小規模AI + Scienceタスクの高精度で知られている。
本稿では,新たなクラスであるGNN-SKANと,その拡張型であるGNN-SKAN+を提案する。
論文 参考訳(メタデータ) (2024-08-02T05:36:14Z) - Kolmogorov-Arnold Graph Neural Networks [2.4005219869876453]
グラフニューラルネットワーク(GNN)は、ネットワークのようなデータから学習する上で優れるが、解釈性に欠けることが多い。
本稿では,GKAN(Graph Kolmogorov-Arnold Network)を提案する。
論文 参考訳(メタデータ) (2024-06-26T13:54:59Z) - DGNN: Decoupled Graph Neural Networks with Structural Consistency
between Attribute and Graph Embedding Representations [62.04558318166396]
グラフニューラルネットワーク(GNN)は、複雑な構造を持つグラフ上での表現学習の堅牢性を示す。
ノードのより包括的な埋め込み表現を得るために、Decoupled Graph Neural Networks (DGNN)と呼ばれる新しいGNNフレームワークが導入された。
複数のグラフベンチマークデータセットを用いて、ノード分類タスクにおけるDGNNの優位性を検証した。
論文 参考訳(メタデータ) (2024-01-28T06:43:13Z) - Information Flow in Graph Neural Networks: A Clinical Triage Use Case [49.86931948849343]
グラフニューラルネットワーク(GNN)は、マルチモーダルグラフとマルチリレーショナルグラフを処理する能力によって、医療やその他の領域で人気を集めている。
GNNにおける埋め込み情報のフローが知識グラフ(KG)におけるリンクの予測に与える影響について検討する。
以上の結果から,ドメイン知識をGNN接続に組み込むことで,KGと同じ接続を使用する場合や,制約のない埋め込み伝搬を行う場合よりも優れた性能が得られることが示された。
論文 参考訳(メタデータ) (2023-09-12T09:18:12Z) - Neighborhood Convolutional Network: A New Paradigm of Graph Neural
Networks for Node Classification [12.062421384484812]
グラフ畳み込みネットワーク(GCN)は、各畳み込み層における近傍の集約と特徴変換を分離する。
本稿では,周辺畳み込みネットワーク(NCN)と呼ばれるGCNの新しいパラダイムを提案する。
このようにして、モデルは、近隣情報を集約するための分離GCNの利点を継承すると同時に、より強力な特徴学習モジュールを開発することができる。
論文 参考訳(メタデータ) (2022-11-15T02:02:51Z) - Relation Embedding based Graph Neural Networks for Handling
Heterogeneous Graph [58.99478502486377]
我々は、同種GNNが不均一グラフを扱うのに十分な能力を持つように、シンプルで効率的なフレームワークを提案する。
具体的には、エッジ型関係と自己ループ接続の重要性を埋め込むために、関係1つのパラメータのみを使用する関係埋め込みベースのグラフニューラルネットワーク(RE-GNN)を提案する。
論文 参考訳(メタデータ) (2022-09-23T05:24:18Z) - Data-Free Adversarial Knowledge Distillation for Graph Neural Networks [62.71646916191515]
グラフ構造化データ(DFAD-GNN)を用いたデータフリー逆知識蒸留のための第1のエンドツーエンドフレームワークを提案する。
具体的には、DFAD-GNNは、教師モデルと学生モデルとを2つの識別器とみなし、教師モデルから学生モデルに知識を抽出するために学習グラフを導出するジェネレータという、主に3つの成分からなる生成的対向ネットワークを採用している。
我々のDFAD-GNNは、グラフ分類タスクにおける最先端のデータフリーベースラインを大幅に上回っている。
論文 参考訳(メタデータ) (2022-05-08T08:19:40Z) - EIGNN: Efficient Infinite-Depth Graph Neural Networks [51.97361378423152]
グラフニューラルネットワーク(GNN)は多くのアプリケーションでグラフ構造化データのモデリングに広く利用されている。
この制限により、無限深度GNNモデルを提案し、これをEIGNN(Efficient Infinite-Depth Graph Neural Networks)と呼ぶ。
EIGNNは、最近のベースラインよりも長距離依存関係をキャプチャする能力が優れており、常に最先端のパフォーマンスを実現していることを示す。
論文 参考訳(メタデータ) (2022-02-22T08:16:58Z) - A Unified View on Graph Neural Networks as Graph Signal Denoising [49.980783124401555]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの学習表現において顕著に普及している。
本研究では,代表的GNNモデル群における集約過程を,グラフ記述問題の解法とみなすことができることを数学的に確立する。
UGNNから派生した新しいGNNモデルADA-UGNNをインスタンス化し、ノード間の適応的滑らかさでグラフを処理する。
論文 参考訳(メタデータ) (2020-10-05T04:57:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。