論文の概要: Structure-Aware Consensus Network on Graphs with Few Labeled Nodes
- arxiv url: http://arxiv.org/abs/2407.02188v1
- Date: Tue, 2 Jul 2024 11:46:07 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-03 15:35:30.803192
- Title: Structure-Aware Consensus Network on Graphs with Few Labeled Nodes
- Title(参考訳): ラベル付きノードの少ないグラフ上の構造認識コンセンサスネットワーク
- Authors: Shuaike Xu, Xiaolin Zhang, Peng Zhang, Kun Zhan,
- Abstract要約: ラベル付きノードがほとんどないグラフノード分類は、監督が限られているため、大きな課題となる。
従来の手法では、しばしばトランスダクティブな学習方法でグラフを利用する。
本稿では,これらの課題を克服する構造対応コンセンサスネットワーク(SACN)を提案する。
- 参考スコア(独自算出の注目度): 7.438140196173472
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph node classification with few labeled nodes presents significant challenges due to limited supervision. Conventional methods often exploit the graph in a transductive learning manner. They fail to effectively utilize the abundant unlabeled data and the structural information inherent in graphs. To address these issues, we introduce a Structure-Aware Consensus Network (SACN) from three perspectives. Firstly, SACN leverages a novel structure-aware consensus learning strategy between two strongly augmented views. The proposed strategy can fully exploit the potentially useful information of the unlabeled nodes and the structural information of the entire graph. Secondly, SACN uniquely integrates the graph's structural information to achieve strong-to-strong consensus learning, improving the utilization of unlabeled data while maintaining multiview learning. Thirdly, unlike two-branch graph neural network-based methods, SACN is designed for multiview feature learning within a single-branch architecture. Furthermore, a class-aware pseudolabel selection strategy helps address class imbalance and achieve effective weak-to-strong supervision. Extensive experiments on three benchmark datasets demonstrate SACN's superior performance in node classification tasks, particularly at very low label rates, outperforming state-of-the-art methods while maintaining computational simplicity.The source code is available at https://github.com/kunzhan/SACN
- Abstract(参考訳): ラベル付きノードがほとんどないグラフノード分類は、監督が限られているため、大きな課題となる。
従来の手法では、しばしばトランスダクティブな学習方法でグラフを利用する。
彼らは、豊富なラベルのないデータとグラフに固有の構造情報を効果的に活用することができない。
これらの課題に対処するために,3つの視点からSACN(Structure-Aware Consensus Network)を導入する。
第一に、SACNは2つの強く拡張された視点の間の新しい構造認識型コンセンサス学習戦略を利用する。
提案手法は,未ラベルノードの潜在的有用な情報とグラフ全体の構造情報を完全に活用することができる。
第2に、SACNはグラフの構造情報を一意に統合し、強力なコンセンサス学習を実現し、マルチビュー学習を維持しながらラベルなしデータの利用を改善する。
第3に、2ブランチグラフニューラルネットワークベースの手法とは異なり、SACNはシングルブランチアーキテクチャ内でのマルチビュー機能学習のために設計されている。
さらに、クラス認識型擬似ラベル選択戦略は、クラス不均衡に対処し、効果的に弱い対強の監視を実現するのに役立つ。
3つのベンチマークデータセットに対する大規模な実験は、SACNのノード分類タスク、特に非常に低いラベル率での優れたパフォーマンスを示し、計算の単純さを維持しながら最先端のメソッドよりも優れており、ソースコードはhttps://github.com/kunzhan/SACNで公開されている。
関連論文リスト
- Learning to Model Graph Structural Information on MLPs via Graph Structure Self-Contrasting [50.181824673039436]
本稿では,グラフ構造情報をメッセージパッシングなしで学習するグラフ構造自己コントラスト(GSSC)フレームワークを提案する。
提案するフレームワークは,構造情報を事前知識として暗黙的にのみ組み込む,MLP(Multi-Layer Perceptrons)に基づいている。
これはまず、近傍の潜在的非形式的あるいはノイズの多いエッジを取り除くために構造的スペーシングを適用し、その後、スペーシングされた近傍で構造的自己コントラストを行い、ロバストなノード表現を学ぶ。
論文 参考訳(メタデータ) (2024-09-09T12:56:02Z) - Self-Attention Empowered Graph Convolutional Network for Structure
Learning and Node Embedding [5.164875580197953]
グラフ構造化データの表現学習では、多くの人気のあるグラフニューラルネットワーク(GNN)が長距離依存をキャプチャできない。
本稿では,自己注意型グラフ畳み込みネットワーク(GCN-SA)と呼ばれる新しいグラフ学習フレームワークを提案する。
提案手法はノードレベルの表現学習において例外的な一般化能力を示す。
論文 参考訳(メタデータ) (2024-03-06T05:00:31Z) - DGNN: Decoupled Graph Neural Networks with Structural Consistency
between Attribute and Graph Embedding Representations [62.04558318166396]
グラフニューラルネットワーク(GNN)は、複雑な構造を持つグラフ上での表現学習の堅牢性を示す。
ノードのより包括的な埋め込み表現を得るために、Decoupled Graph Neural Networks (DGNN)と呼ばれる新しいGNNフレームワークが導入された。
複数のグラフベンチマークデータセットを用いて、ノード分類タスクにおけるDGNNの優位性を検証した。
論文 参考訳(メタデータ) (2024-01-28T06:43:13Z) - SMARTQUERY: An Active Learning Framework for Graph Neural Networks
through Hybrid Uncertainty Reduction [25.77052028238513]
本稿では,ハイブリッド不確実性低減関数を用いて,ラベル付きノードの少ないグラフニューラルネットワークを学習するフレームワークを提案する。
ごく少数のラベル付きデータを用いた最先端技術に対する本手法の競合性能を実証する。
論文 参考訳(メタデータ) (2022-12-02T20:49:38Z) - Towards Unsupervised Deep Graph Structure Learning [67.58720734177325]
本稿では,学習したグラフトポロジを外部ガイダンスなしでデータ自身で最適化する,教師なしグラフ構造学習パラダイムを提案する。
具体的には、元のデータから"アンカーグラフ"として学習目標を生成し、対照的な損失を用いてアンカーグラフと学習グラフとの一致を最大化する。
論文 参考訳(メタデータ) (2022-01-17T11:57:29Z) - Meta Propagation Networks for Graph Few-shot Semi-supervised Learning [39.96930762034581]
本稿では,この問題を解決するために,メタ学習アルゴリズムを用いた新しいネットワークアーキテクチャを提案する。
基本的に,我々のMeta-PNフレームワークは,メタ学習ラベルの伝搬戦略を用いて,未ラベルノード上の高品質な擬似ラベルを推論する。
我々のアプローチは、様々なベンチマークデータセットの既存の技術と比較して、容易で実質的なパフォーマンス向上を提供する。
論文 参考訳(メタデータ) (2021-12-18T00:11:56Z) - ROD: Reception-aware Online Distillation for Sparse Graphs [23.55530524584572]
疎グラフ学習のための新しいレセプション対応オンライン知識蒸留手法 ROD を提案する。
RODのための3つの監視信号: マルチスケールの受信対応グラフ知識、タスクベース監視、豊富な蒸留知識。
我々のアプローチは9つのデータセットと様々なグラフベースのタスクで広く評価されている。
論文 参考訳(メタデータ) (2021-07-25T11:55:47Z) - Graph Information Bottleneck [77.21967740646784]
グラフニューラルネットワーク(GNN)は、ネットワーク構造とノード機能から情報を融合する表現的な方法を提供する。
GIBは、一般的なInformation Bottleneck (IB) を継承し、与えられたタスクに対する最小限の表現を学習することを目的としている。
提案したモデルが最先端のグラフ防御モデルよりも堅牢であることを示す。
論文 参考訳(メタデータ) (2020-10-24T07:13:00Z) - On the Equivalence of Decoupled Graph Convolution Network and Label
Propagation [60.34028546202372]
いくつかの研究は、カップリングがデカップリングよりも劣っていることを示している。
有効性にもかかわらず、疎結合GCNの作用機構はよく理解されていない。
本稿では,分離GCNの欠陥を克服する適応的学習法(PTA)を提案する。
論文 参考訳(メタデータ) (2020-10-23T13:57:39Z) - Contrastive and Generative Graph Convolutional Networks for Graph-based
Semi-Supervised Learning [64.98816284854067]
グラフベースのSemi-Supervised Learning (SSL)は、少数のラベル付きデータのラベルをグラフ経由で残りの巨大なラベル付きデータに転送することを目的としている。
本稿では,データ類似性とグラフ構造を両立させ,監視信号の強化を図るため,新しいGCNベースのSSLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-09-15T13:59:28Z) - Knowledge Embedding Based Graph Convolutional Network [35.35776808660919]
本稿では,知識埋め込みに基づくグラフ畳み込みネットワーク(KE-GCN)という新しいフレームワークを提案する。
KE-GCNはグラフベースの信念伝播におけるグラフ畳み込みネットワーク(GCN)のパワーと高度な知識埋め込み手法の強みを組み合わせたものである。
理論的解析により、KE-GCNはいくつかのよく知られたGCN法のエレガントな統一を具体例として示している。
論文 参考訳(メタデータ) (2020-06-12T17:12:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。