論文の概要: Semantic Graph Neural Network with Multi-measure Learning for
Semi-supervised Classification
- arxiv url: http://arxiv.org/abs/2212.01749v1
- Date: Sun, 4 Dec 2022 06:17:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-06 18:09:56.408413
- Title: Semantic Graph Neural Network with Multi-measure Learning for
Semi-supervised Classification
- Title(参考訳): 半教師付き分類のためのマルチ計測学習を用いた意味グラフニューラルネットワーク
- Authors: Junchao Lin, Yuan Wan, Jingwen Xu, Xingchen Qi
- Abstract要約: 近年,グラフニューラルネットワーク(GNN)が注目されている。
近年の研究では、GNNはグラフの複雑な基盤構造に弱いことが示されている。
半教師付き分類のための新しいフレームワークを提案する。
- 参考スコア(独自算出の注目度): 5.000404730573809
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Neural Networks (GNNs) have attracted increasing attention in recent
years and have achieved excellent performance in semi-supervised node
classification tasks. The success of most GNNs relies on one fundamental
assumption, i.e., the original graph structure data is available. However,
recent studies have shown that GNNs are vulnerable to the complex underlying
structure of the graph, making it necessary to learn comprehensive and robust
graph structures for downstream tasks, rather than relying only on the raw
graph structure. In light of this, we seek to learn optimal graph structures
for downstream tasks and propose a novel framework for semi-supervised
classification. Specifically, based on the structural context information of
graph and node representations, we encode the complex interactions in semantics
and generate semantic graphs to preserve the global structure. Moreover, we
develop a novel multi-measure attention layer to optimize the similarity rather
than prescribing it a priori, so that the similarity can be adaptively
evaluated by integrating measures. These graphs are fused and optimized
together with GNN towards semi-supervised classification objective. Extensive
experiments and ablation studies on six real-world datasets clearly demonstrate
the effectiveness of our proposed model and the contribution of each component.
- Abstract(参考訳): 近年,グラフニューラルネットワーク (GNN) が注目され,半教師付きノード分類タスクにおいて優れた性能を発揮している。
ほとんどのGNNの成功は1つの基本的な前提、すなわち元のグラフ構造データが利用できることに依存している。
しかし、最近の研究では、gnnはグラフの複雑な基盤構造に弱いことを示しており、生のグラフ構造のみに頼るのではなく、下流タスクのための包括的かつ堅牢なグラフ構造を学ぶ必要がある。
そこで我々は,下流タスクのための最適グラフ構造を学習し,半教師付き分類のための新しいフレームワークを提案する。
具体的には、グラフとノード表現の構造的コンテキスト情報に基づいて、意味論における複雑な相互作用をエンコードし、大域構造を保存するために意味グラフを生成する。
さらに,事前設定よりも類似度を最適化する新しい多測度アテンション層を開発し,その類似度を尺度の統合により適応的に評価できるようにする。
これらのグラフはgnnと融合され、半教師付き分類目的に向かって最適化される。
6つの実世界のデータセットに対する大規模な実験とアブレーション研究により,提案モデルの有効性と各成分の寄与が明らかに示された。
関連論文リスト
- GaGSL: Global-augmented Graph Structure Learning via Graph Information Bottleneck [5.943641527857957]
我々は,TextitGlobal-augmented Graph Structure Learning (GaGSL) という新しい手法を提案する。
GaGSLの背景にある重要な考え方は、ノード分類タスクのためのコンパクトで情報的なグラフ構造を学ぶことである。
さまざまなデータセットにわたる包括的な評価は、最先端の手法と比較して、GaGSLの優れた性能と堅牢性を示している。
論文 参考訳(メタデータ) (2024-11-07T01:23:48Z) - Learning to Model Graph Structural Information on MLPs via Graph Structure Self-Contrasting [50.181824673039436]
本稿では,グラフ構造情報をメッセージパッシングなしで学習するグラフ構造自己コントラスト(GSSC)フレームワークを提案する。
提案するフレームワークは,構造情報を事前知識として暗黙的にのみ組み込む,MLP(Multi-Layer Perceptrons)に基づいている。
これはまず、近傍の潜在的非形式的あるいはノイズの多いエッジを取り除くために構造的スペーシングを適用し、その後、スペーシングされた近傍で構造的自己コントラストを行い、ロバストなノード表現を学ぶ。
論文 参考訳(メタデータ) (2024-09-09T12:56:02Z) - MDS-GNN: A Mutual Dual-Stream Graph Neural Network on Graphs with Incomplete Features and Structure [8.00268216176428]
グラフニューラルネットワーク(GNN)は、グラフ構造化データから表現を分析し学習するための強力なツールとして登場した。
GNNの卓越した性能にとって重要な前提条件は、完全なグラフ情報の提供である。
本研究では,特徴と構造間の相互利益学習を実装した相互二重ストリームグラフニューラルネットワーク(MDS-GNN)を提案する。
論文 参考訳(メタデータ) (2024-08-09T03:42:56Z) - DGNN: Decoupled Graph Neural Networks with Structural Consistency
between Attribute and Graph Embedding Representations [62.04558318166396]
グラフニューラルネットワーク(GNN)は、複雑な構造を持つグラフ上での表現学習の堅牢性を示す。
ノードのより包括的な埋め込み表現を得るために、Decoupled Graph Neural Networks (DGNN)と呼ばれる新しいGNNフレームワークが導入された。
複数のグラフベンチマークデータセットを用いて、ノード分類タスクにおけるDGNNの優位性を検証した。
論文 参考訳(メタデータ) (2024-01-28T06:43:13Z) - GraphGLOW: Universal and Generalizable Structure Learning for Graph
Neural Networks [72.01829954658889]
本稿では,この新たな問題設定の数学的定義を紹介する。
一つのグラフ共有構造学習者と複数のグラフ固有GNNを協調する一般的なフレームワークを考案する。
十分に訓練された構造学習者は、微調整なしで、目に見えない対象グラフの適応的な構造を直接生成することができる。
論文 参考訳(メタデータ) (2023-06-20T03:33:22Z) - SE-GSL: A General and Effective Graph Structure Learning Framework
through Structural Entropy Optimization [67.28453445927825]
グラフニューラルネットワーク(GNN)は、構造的データ学習のデファクトソリューションである。
既存のグラフ構造学習(GSL)フレームワークには、堅牢性と解釈性がない。
本稿では、構造エントロピーと符号化木に抽象化されたグラフ階層を通して、一般的なGSLフレームワークSE-GSLを提案する。
論文 参考訳(メタデータ) (2023-03-17T05:20:24Z) - Optimal Propagation for Graph Neural Networks [51.08426265813481]
最適グラフ構造を学習するための二段階最適化手法を提案する。
また、時間的複雑さをさらに軽減するために、低ランク近似モデルについても検討する。
論文 参考訳(メタデータ) (2022-05-06T03:37:00Z) - Towards Unsupervised Deep Graph Structure Learning [67.58720734177325]
本稿では,学習したグラフトポロジを外部ガイダンスなしでデータ自身で最適化する,教師なしグラフ構造学習パラダイムを提案する。
具体的には、元のデータから"アンカーグラフ"として学習目標を生成し、対照的な損失を用いてアンカーグラフと学習グラフとの一致を最大化する。
論文 参考訳(メタデータ) (2022-01-17T11:57:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。