論文の概要: AKBR: Learning Adaptive Kernel-based Representations for Graph Classification
- arxiv url: http://arxiv.org/abs/2403.16130v2
- Date: Tue, 13 Aug 2024 16:01:15 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-14 22:45:05.742237
- Title: AKBR: Learning Adaptive Kernel-based Representations for Graph Classification
- Title(参考訳): AKBR:グラフ分類のための適応カーネルベース表現の学習
- Authors: Feifei Qian, Lixin Cui, Ming Li, Yue Wang, Hangyuan Du, Lixiang Xu, Lu Bai, Philip S. Yu, Edwin R. Hancock,
- Abstract要約: グラフ分類のための適応カーネルベース表現(AKBR)を学習するための新しいモデルを提案する。
提案手法は,グラフの適応型カーネル行列を構築するために,エンドツーエンドの表現学習モデルを定義することを目的としている。
実験結果から,提案したAKBRモデルは,標準グラフベンチマークにおいて,既存の最先端グラフカーネルやディープラーニング手法よりも優れていることがわかった。
- 参考スコア(独自算出の注目度): 43.87164777893224
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose a new model to learn Adaptive Kernel-based Representations (AKBR) for graph classification. Unlike state-of-the-art R-convolution graph kernels that are defined by merely counting any pair of isomorphic substructures between graphs and cannot provide an end-to-end learning mechanism for the classifier, the proposed AKBR approach aims to define an end-to-end representation learning model to construct an adaptive kernel matrix for graphs. To this end, we commence by leveraging a novel feature-channel attention mechanism to capture the interdependencies between different substructure invariants of original graphs. The proposed AKBR model can thus effectively identify the structural importance of different substructures, and compute the R-convolution kernel between pairwise graphs associated with the more significant substructures specified by their structural attentions. Since each row of the resulting kernel matrix can be theoretically seen as the embedding vector of a sample graph, the proposed AKBR model is able to directly employ the resulting kernel matrix as the graph feature matrix and input it into the classifier for classification (i.e., the SoftMax layer), naturally providing an end-to-end learning architecture between the kernel computation as well as the classifier. Experimental results show that the proposed AKBR model outperforms existing state-of-the-art graph kernels and deep learning methods on standard graph benchmarks.
- Abstract(参考訳): 本稿では,グラフ分類のための適応カーネルベース表現(AKBR)を学習するための新しいモデルを提案する。
グラフ間の一対の同型部分構造を単に数えるだけで定義される最先端のR-畳み込みグラフカーネルとは異なり、AKBRアプローチは、グラフの適応的なカーネル行列を構築するためのエンドツーエンドの表現学習モデルを定義することを目的としている。
この目的のために、我々は新しい特徴チャネルアテンション機構を活用して、原グラフの異なる部分構造不変量間の相互依存性を捉える。
提案したAKBRモデルは、異なるサブストラクチャの構造的重要性を効果的に識別し、それらの構造的注意によって指定されたより重要なサブストラクチャに関連付けられたペアワイズグラフ間のR-畳み込みカーネルを計算することができる。
得られたカーネル行列の各行は、理論上はサンプルグラフの埋め込みベクトルと見なすことができるので、提案されたAKBRモデルは、結果のカーネル行列をグラフ特徴行列として直接使用し、分類のための分類器(SoftMax層)に入力し、カーネル計算と分類器の間にエンド・ツー・エンドの学習アーキテクチャを提供する。
実験結果から,提案したAKBRモデルは,標準グラフベンチマークにおいて,既存の最先端グラフカーネルやディープラーニング手法よりも優れていることがわかった。
関連論文リスト
- GraphGLOW: Universal and Generalizable Structure Learning for Graph
Neural Networks [72.01829954658889]
本稿では,この新たな問題設定の数学的定義を紹介する。
一つのグラフ共有構造学習者と複数のグラフ固有GNNを協調する一般的なフレームワークを考案する。
十分に訓練された構造学習者は、微調整なしで、目に見えない対象グラフの適応的な構造を直接生成することができる。
論文 参考訳(メタデータ) (2023-06-20T03:33:22Z) - Learning Graphical Factor Models with Riemannian Optimization [70.13748170371889]
本稿では,低ランク構造制約下でのグラフ学習のためのフレキシブルなアルゴリズムフレームワークを提案する。
この問題は楕円分布のペナルティ化された最大推定値として表される。
楕円モデルによく適合する正定行列と定ランクの正半定行列のジオメトリを利用する。
論文 参考訳(メタデータ) (2022-10-21T13:19:45Z) - Graph Kernel Neural Networks [53.91024360329517]
本稿では、グラフ上の内部積を計算するカーネル関数であるグラフカーネルを用いて、標準畳み込み演算子をグラフ領域に拡張することを提案する。
これにより、入力グラフの埋め込みを計算する必要のない完全に構造的なモデルを定義することができる。
私たちのアーキテクチャでは,任意の種類のグラフカーネルをプラグインすることが可能です。
論文 参考訳(メタデータ) (2021-12-14T14:48:08Z) - Regularization of Mixture Models for Robust Principal Graph Learning [0.0]
D$次元データポイントの分布から主グラフを学習するために,Mixture Modelsの正規化バージョンを提案する。
モデルのパラメータは期待最大化手順によって反復的に推定される。
論文 参考訳(メタデータ) (2021-06-16T18:00:02Z) - Learning subtree pattern importance for Weisfeiler-Lehmanbased graph
kernels [15.139294083028782]
WWLカーネルのフレームワークにおけるサブツリーパターンの重み付けを学習する手法を提案する。
本稿では,効率的な学習アルゴリズムを提案するとともに,その収束を示すための一般化ギャップを導出する。
論文 参考訳(メタデータ) (2021-06-08T23:47:44Z) - Structured Graph Learning for Clustering and Semi-supervised
Classification [74.35376212789132]
データの局所構造とグローバル構造の両方を保存するためのグラフ学習フレームワークを提案する。
本手法は, サンプルの自己表現性を利用して, 局所構造を尊重するために, 大域的構造と適応的隣接アプローチを捉える。
我々のモデルは、ある条件下でのカーネルk平均法とk平均法の組合せと等価である。
論文 参考訳(メタデータ) (2020-08-31T08:41:20Z) - An End-to-End Graph Convolutional Kernel Support Vector Machine [0.0]
グラフ分類のためのカーネルベースサポートベクターマシン(SVM)を提案する。
提案したモデルは、教師付きエンドツーエンドで訓練される。
実験結果から,提案モデルが既存のディープラーニングベースラインモデルよりも優れていることが示された。
論文 参考訳(メタデータ) (2020-02-29T09:57:42Z) - Embedding Graph Auto-Encoder for Graph Clustering [90.8576971748142]
グラフ自動エンコーダ(GAE)モデルは、半教師付きグラフ畳み込みネットワーク(GCN)に基づく
我々は、グラフクラスタリングのための特定のGAEベースのモデルを設計し、その理論、すなわち、埋め込みグラフオートエンコーダ(EGAE)と整合する。
EGAEは1つのエンコーダと2つのデコーダで構成される。
論文 参考訳(メタデータ) (2020-02-20T09:53:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。