論文の概要: Learning to Approximate Adaptive Kernel Convolution on Graphs
- arxiv url: http://arxiv.org/abs/2401.11840v1
- Date: Mon, 22 Jan 2024 10:57:11 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-23 14:36:19.074702
- Title: Learning to Approximate Adaptive Kernel Convolution on Graphs
- Title(参考訳): グラフ上で適応カーネル畳み込みを近似する学習
- Authors: Jaeyoon Sim, Sooyeon Jeon, InJun Choi, Guorong Wu, Won Hwa Kim
- Abstract要約: 本稿では,拡散カーネルのスケールによって特徴集約の範囲を制御できる拡散学習フレームワークを提案する。
本モデルは,最先端データセットの性能評価のためのノードワイズ分類のための様々な標準で検証されている。
グラフ分類のための実世界の脳ネットワークデータにも検証され、アルツハイマー分類の実用性を実証している。
- 参考スコア(独自算出の注目度): 4.434835769977399
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Various Graph Neural Networks (GNNs) have been successful in analyzing data
in non-Euclidean spaces, however, they have limitations such as oversmoothing,
i.e., information becomes excessively averaged as the number of hidden layers
increases. The issue stems from the intrinsic formulation of conventional graph
convolution where the nodal features are aggregated from a direct neighborhood
per layer across the entire nodes in the graph. As setting different number of
hidden layers per node is infeasible, recent works leverage a diffusion kernel
to redefine the graph structure and incorporate information from farther nodes.
Unfortunately, such approaches suffer from heavy diagonalization of a graph
Laplacian or learning a large transform matrix. In this regards, we propose a
diffusion learning framework, where the range of feature aggregation is
controlled by the scale of a diffusion kernel. For efficient computation, we
derive closed-form derivatives of approximations of the graph convolution with
respect to the scale, so that node-wise range can be adaptively learned. With a
downstream classifier, the entire framework is made trainable in an end-to-end
manner. Our model is tested on various standard datasets for node-wise
classification for the state-of-the-art performance, and it is also validated
on a real-world brain network data for graph classifications to demonstrate its
practicality for Alzheimer classification.
- Abstract(参考訳): 様々なグラフニューラルネットワーク(gnn)は非ユークリッド空間のデータ分析に成功しているが、隠れた層数が増えるにつれて情報が過度に平均化されるといった制限がある。
この問題は従来のグラフ畳み込みの内在的な定式化に起因しており、これはグラフ内のノード全体にわたって、ノードごとの直接近傍から結節的特徴が集約される。
ノード毎に異なる数の隠れレイヤを設定することは不可能であるため、最近の研究は拡散カーネルを利用してグラフ構造を再定義し、さらに遠いノードからの情報を取り入れている。
残念ながら、そのようなアプローチはグラフラプラシアンの重対角化や大きな変換行列の学習に苦しむ。
本稿では,拡散核のスケールによって特徴集合の範囲が制御される拡散学習フレームワークを提案する。
効率的な計算のために、グラフ畳み込みの近似の閉形式微分をスケールに対して導出し、ノードごとの範囲を適応的に学習できる。
下流の分類器では、フレームワーク全体がエンドツーエンドでトレーニング可能である。
提案手法は,最先端性能のノードワイズ分類のための各種標準データセットを用いて検証し,実際の脳ネットワークデータを用いたグラフ分類の検証を行い,アルツハイマー分類の実用性を実証した。
関連論文リスト
- Deep Manifold Graph Auto-Encoder for Attributed Graph Embedding [51.75091298017941]
本稿では,属性付きグラフデータに対する新しいDeep Manifold (Variational) Graph Auto-Encoder (DMVGAE/DMGAE)を提案する。
提案手法は,最先端のベースラインアルゴリズムを,一般的なデータセット間でのダウンストリームタスクの差を大きく越える。
論文 参考訳(メタデータ) (2024-01-12T17:57:07Z) - Learning Adaptive Neighborhoods for Graph Neural Networks [45.94778766867247]
グラフ畳み込みネットワーク(GCN)は、グラフ構造化データのエンドツーエンド学習を可能にする。
本稿では,グラフトポロジを構築する新しいエンドツーエンドの微分可能なグラフ生成器を提案する。
私たちのモジュールは、グラフ畳み込み操作を含む既存のパイプラインに簡単に統合できます。
論文 参考訳(メタデータ) (2023-07-18T08:37:25Z) - NodeFormer: A Scalable Graph Structure Learning Transformer for Node
Classification [70.51126383984555]
本稿では,任意のノード間のノード信号を効率的に伝搬する全ペアメッセージパッシング方式を提案する。
効率的な計算は、カーナライズされたGumbel-Softmax演算子によって実現される。
グラフ上のノード分類を含む様々なタスクにおいて,本手法の有望な有効性を示す実験を行った。
論文 参考訳(メタデータ) (2023-06-14T09:21:15Z) - Addressing Heterophily in Node Classification with Graph Echo State
Networks [11.52174067809364]
ノード分類のためのグラフエコー状態ネットワーク(GESN)を用いた異種グラフの課題に対処する。
GESNはグラフのための貯水池計算モデルであり、ノードの埋め込みは訓練されていないメッセージパッシング関数によって計算される。
実験の結果, 貯水池モデルでは, ほぼ完全に訓練された深層モデルに対して, より優れた精度あるいは同等の精度が得られることがわかった。
論文 参考訳(メタデータ) (2023-05-14T19:42:31Z) - Learning Graph Structure from Convolutional Mixtures [119.45320143101381]
本稿では、観測されたグラフと潜伏グラフのグラフ畳み込み関係を提案し、グラフ学習タスクをネットワーク逆(デコンボリューション)問題として定式化する。
固有分解に基づくスペクトル法の代わりに、近似勾配反復をアンロール・トランケートして、グラフデコンボリューションネットワーク(GDN)と呼ばれるパラメータ化ニューラルネットワークアーキテクチャに到達させる。
GDNは、教師付き方式でグラフの分布を学習し、損失関数を適応させることでリンク予測やエッジウェイト回帰タスクを実行し、本質的に帰納的である。
論文 参考訳(メタデータ) (2022-05-19T14:08:15Z) - Optimal Propagation for Graph Neural Networks [51.08426265813481]
最適グラフ構造を学習するための二段階最適化手法を提案する。
また、時間的複雑さをさらに軽減するために、低ランク近似モデルについても検討する。
論文 参考訳(メタデータ) (2022-05-06T03:37:00Z) - Geometric Graph Representation Learning via Maximizing Rate Reduction [73.6044873825311]
学習ノード表現は、コミュニティ検出やノード分類などのグラフ解析において、さまざまな下流タスクの恩恵を受ける。
教師なしの方法でノード表現を学習するための幾何学グラフ表現学習(G2R)を提案する。
G2R は異なるグループ内のノードを異なる部分空間にマッピングし、各部分空間はコンパクトで異なる部分空間が分散される。
論文 参考訳(メタデータ) (2022-02-13T07:46:24Z) - Graph Neural Diffusion Networks for Semi-supervised Learning [6.376489604292251]
Graph Convolutional Networks (GCN)は、グラフに基づく半教師付き学習のパイオニアモデルである。
本稿では,局所的およびグローバルな近隣情報を利用したニューラルネット(グラフニューラルディフュージョンネットワーク)と呼ばれる新しいグラフニューラルネットワークを提案する。
ニューラルネットワークの採用により、ニューラルネットワークの拡散は異なるデータセットに適応できる。
論文 参考訳(メタデータ) (2022-01-24T14:07:56Z) - Graph Kernel Neural Networks [53.91024360329517]
本稿では、グラフ上の内部積を計算するカーネル関数であるグラフカーネルを用いて、標準畳み込み演算子をグラフ領域に拡張することを提案する。
これにより、入力グラフの埋め込みを計算する必要のない完全に構造的なモデルを定義することができる。
私たちのアーキテクチャでは,任意の種類のグラフカーネルをプラグインすることが可能です。
論文 参考訳(メタデータ) (2021-12-14T14:48:08Z) - Graph Neural Networks with Feature and Structure Aware Random Walk [7.143879014059894]
典型的な好適なグラフでは、エッジを指向する可能性があり、エッジをそのまま扱うか、あるいは単純に非指向にするかは、GNNモデルの性能に大きな影響を与える。
そこで我々は,グラフの方向性を適応的に学習するモデルを開発し,ノード間の長距離相関を生かした。
論文 参考訳(メタデータ) (2021-11-19T08:54:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。