論文の概要: Descriptive Kernel Convolution Network with Improved Random Walk Kernel
- arxiv url: http://arxiv.org/abs/2402.06087v1
- Date: Thu, 8 Feb 2024 22:39:49 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-12 18:29:35.461375
- Title: Descriptive Kernel Convolution Network with Improved Random Walk Kernel
- Title(参考訳): ランダムウォークカーネルを改良した記述型カーネル畳み込みネットワーク
- Authors: Meng-Chieh Lee, Lingxiao Zhao, Leman Akoglu
- Abstract要約: Kernel Convolution Networks (KCNs) のスイートは、学習性を導入してグラフカーネルの再活性化に成功した。
ランダムウォークカーネル(RWK)は多くのKCNでデフォルトカーネルとして使われており、注目度が高まっている。
本稿では,RWK+をコアカーネルとして使用するKCNであるRWK+CNを提案する。
- 参考スコア(独自算出の注目度): 40.57039057277432
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph kernels used to be the dominant approach to feature engineering for
structured data, which are superseded by modern GNNs as the former lacks
learnability. Recently, a suite of Kernel Convolution Networks (KCNs)
successfully revitalized graph kernels by introducing learnability, which
convolves input with learnable hidden graphs using a certain graph kernel. The
random walk kernel (RWK) has been used as the default kernel in many KCNs,
gaining increasing attention. In this paper, we first revisit the RWK and its
current usage in KCNs, revealing several shortcomings of the existing designs,
and propose an improved graph kernel RWK+, by introducing color-matching random
walks and deriving its efficient computation. We then propose RWK+CN, a KCN
that uses RWK+ as the core kernel to learn descriptive graph features with an
unsupervised objective, which can not be achieved by GNNs. Further, by
unrolling RWK+, we discover its connection with a regular GCN layer, and
propose a novel GNN layer RWK+Conv. In the first part of experiments, we
demonstrate the descriptive learning ability of RWK+CN with the improved random
walk kernel RWK+ on unsupervised pattern mining tasks; in the second part, we
show the effectiveness of RWK+ for a variety of KCN architectures and
supervised graph learning tasks, and demonstrate the expressiveness of RWK+Conv
layer, especially on the graph-level tasks. RWK+ and RWK+Conv adapt to various
real-world applications, including web applications such as bot detection in a
web-scale Twitter social network, and community classification in Reddit social
interaction networks.
- Abstract(参考訳): グラフカーネルは、構造化データの機能エンジニアリングにおいて支配的なアプローチであり、前者が学習可能性に欠けるため、現代のgnnに取って代わられた。
近年、一連のカーネル畳み込みネットワーク(kcns)が、特定のグラフカーネルを使用して学習可能な隠れグラフと入力を結合する学習可能性を導入することで、グラフカーネルの活性化に成功した。
ランダムウォークカーネル(RWK)は多くのKCNでデフォルトカーネルとして使われており、注目度が高まっている。
本稿では,rwkをkcnsで再検討し,既存の設計のいくつかの欠点を明らかにし,カラーマッチングランダムウォークを導入し,その効率的な計算を行うことにより,改良されたグラフカーネルrwk+を提案する。
次に,rwk+をコアカーネルとして使用するkcnであるrwk+cnを提案する。
さらに、RWK+をアンロールすることで、通常のGCN層との接続を発見し、新しいGNN層RWK+Convを提案する。
実験の前半では,ランダムウォークカーネルrwk+を改良したランダムウォークカーネルrwk+を用いたrwk+cnの記述学習能力を非教師ありパターンマイニングタスクで実証し,後半では様々なkcnアーキテクチャと教師ありグラフ学習タスクに対するrwk+の有効性を示し,特にグラフレベルタスクにおけるrwk+conv層の表現性を示す。
RWK+とRWK+Convは、WebスケールのTwitterソーシャルネットワークにおけるボット検出やRedditソーシャルインタラクションネットワークにおけるコミュニティ分類など、さまざまな現実世界のアプリケーションに適応する。
関連論文リスト
- Scalable Graph Compressed Convolutions [68.85227170390864]
ユークリッド畳み込みのための入力グラフのキャリブレーションに置換を適用する微分可能手法を提案する。
グラフキャリブレーションに基づいて,階層型グラフ表現学習のための圧縮畳み込みネットワーク(CoCN)を提案する。
論文 参考訳(メタデータ) (2024-07-26T03:14:13Z) - Graph Convolutional Network For Semi-supervised Node Classification With Subgraph Sketching [0.27624021966289597]
本稿では,GLDGCNと呼ばれるグラフ学習型グラフ畳み込みニューラルネットワークを提案する。
半教師付きノード分類タスクにGLDGCNを適用する。
ベースライン手法と比較して,3つの引用ネットワークの分類精度が向上する。
論文 参考訳(メタデータ) (2024-04-19T09:08:12Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - Adaptive Kernel Graph Neural Network [21.863238974404474]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの表現学習において大きな成功を収めている。
本稿では,AKGNN(Adaptive Kernel Graph Neural Network)という新しいフレームワークを提案する。
AKGNNは、最初の試みで最適なグラフカーネルに統一的に適応することを学ぶ。
評価されたベンチマークデータセットで実験を行い、提案したAKGNNの優れた性能を示す有望な結果を得た。
論文 参考訳(メタデータ) (2021-12-08T20:23:58Z) - Fast Graph Neural Tangent Kernel via Kronecker Sketching [21.262462612395016]
近年,グラフデータを学習するための新しい手法がGNTK (Graph Neural Tangent Kernel) である。
GNTKは、グラフデータに対するNeural Tangent Kernel(NTK)の応用である。
本稿では,カーネル行列を$o(n2N3)$実行時間で構築する最初のアルゴリズムを提供する。
論文 参考訳(メタデータ) (2021-12-04T23:23:20Z) - Scaling Neural Tangent Kernels via Sketching and Random Features [53.57615759435126]
最近の研究報告では、NTKレグレッションは、小規模データセットでトレーニングされた有限範囲のニューラルネットワークより優れている。
我々は、アークコサインカーネルの拡張をスケッチして、NTKの近距離入力スパーシティ時間近似アルゴリズムを設計する。
CNTKの特徴をトレーニングした線形回帰器が,CIFAR-10データセット上での正確なCNTKの精度と150倍の高速化を実現していることを示す。
論文 参考訳(メタデータ) (2021-06-15T04:44:52Z) - Towards Efficient Graph Convolutional Networks for Point Cloud Handling [181.59146413326056]
ポイントクラウド上で学習するためのグラフ畳み込みネットワーク(GCN)の計算効率の向上を目指します。
一連の実験により、最適化されたネットワークは計算複雑性を減らし、メモリ消費を減らし、推論速度を加速した。
論文 参考訳(メタデータ) (2021-04-12T17:59:16Z) - A Unified Lottery Ticket Hypothesis for Graph Neural Networks [82.31087406264437]
本稿では,グラフ隣接行列とモデルの重み付けを同時に行う統一GNNスペーシフィケーション(UGS)フレームワークを提案する。
グラフ宝くじ(GLT)をコアサブデータセットとスパースサブネットワークのペアとして定義することにより、人気のある宝くじチケット仮説を初めてGNNsにさらに一般化します。
論文 参考訳(メタデータ) (2021-02-12T21:52:43Z) - Convolutional Kernel Networks for Graph-Structured Data [37.13712126432493]
我々は,多層グラフカーネルのファミリーを導入し,グラフ畳み込みニューラルネットワークとカーネルメソッドの新たなリンクを確立する。
提案手法は,グラフをカーネル特徴写像の列として表現することにより,畳み込みカーネルネットワークをグラフ構造データに一般化する。
我々のモデルは、大規模データに対してエンドツーエンドでトレーニングすることもでき、新しいタイプのグラフ畳み込みニューラルネットワークをもたらす。
論文 参考訳(メタデータ) (2020-03-11T09:44:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。