論文の概要: CSG: Curriculum Representation Learning for Signed Graph
- arxiv url: http://arxiv.org/abs/2310.11083v1
- Date: Tue, 17 Oct 2023 09:08:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-18 16:51:51.158598
- Title: CSG: Curriculum Representation Learning for Signed Graph
- Title(参考訳): CSG:手話グラフのためのカリキュラム表現学習
- Authors: Zeyu Zhang, Jiamou Liu, Kaiqi Zhao, Yifei Wang, Pengqian Han, Xianda
Zheng, Qiqi Wang, Zijian Zhang
- Abstract要約: サイン付きグラフニューラルネットワーク(SGNN)のためのカリキュラムベースの学習手法を提案する。
サイン付きグラフ(CSG)のための軽量なメカニズムを導入し、カリキュラム表現学習フレームワークを作成する。
6つの実世界のデータセットに対する実証検証の結果、SGNNモデルの精度を最大23.7%向上させ、AUCスコアの標準偏差を最大8.4減らして安定性を著しく改善した。
- 参考スコア(独自算出の注目度): 21.304945701540454
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Signed graphs are valuable for modeling complex relationships with positive
and negative connections, and Signed Graph Neural Networks (SGNNs) have become
crucial tools for their analysis. However, prior to our work, no specific
training plan existed for SGNNs, and the conventional random sampling approach
did not address varying learning difficulties within the graph's structure. We
proposed a curriculum-based training approach, where samples progress from easy
to complex, inspired by human learning. To measure learning difficulty, we
introduced a lightweight mechanism and created the Curriculum representation
learning framework for Signed Graphs (CSG). This framework optimizes the order
in which samples are presented to the SGNN model. Empirical validation across
six real-world datasets showed impressive results, enhancing SGNN model
accuracy by up to 23.7% in link sign prediction (AUC) and significantly
improving stability with an up to 8.4 reduction in the standard deviation of
AUC scores.
- Abstract(参考訳): 符号付きグラフは、正および負の接続を持つ複雑な関係をモデル化するのに有用であり、符号付きグラフニューラルネットワーク(SGNN)はその解析にとって重要なツールとなっている。
しかし,本研究に先立ち,SGNNの具体的な学習計画はなく,従来のランダムサンプリング手法ではグラフ構造内の学習困難に対処できなかった。
本研究では,人間学習に触発され,サンプルが容易から複雑に進行するカリキュラムベースのトレーニング手法を提案する。
学習難度を測定するために,我々は軽量なメカニズムを導入し,CSGのためのカリキュラム表現学習フレームワークを開発した。
このフレームワークは、サンプルがSGNNモデルに提示される順序を最適化する。
6つの実世界のデータセットに対する実証検証の結果、SGNNモデルの精度を最大23.7%向上させ、AUCスコアの標準偏差を最大8.4減らして安定性を大幅に改善した。
関連論文リスト
- Stealing Training Graphs from Graph Neural Networks [54.52392250297907]
グラフニューラルネットワーク(GNN)は、様々なタスクにおけるグラフのモデリングにおいて有望な結果を示している。
ニューラルネットワークがトレーニングサンプルを記憶できるため、GNNのモデルパラメータはプライベートトレーニングデータをリークするリスクが高い。
訓練されたGNNからグラフを盗むという新しい問題について検討する。
論文 参考訳(メタデータ) (2024-11-17T23:15:36Z) - Graph Transductive Defense: a Two-Stage Defense for Graph Membership Inference Attacks [50.19590901147213]
グラフニューラルネットワーク(GNN)は、さまざまな現実世界のアプリケーションにおいて、強力なグラフ学習機能を提供する。
GNNは、メンバーシップ推論攻撃(MIA)を含む敵攻撃に対して脆弱である
本稿では,グラフトランスダクティブ学習特性に合わせて,グラフトランスダクティブ・ディフェンス(GTD)を提案する。
論文 参考訳(メタデータ) (2024-06-12T06:36:37Z) - Graph Unlearning with Efficient Partial Retraining [28.433619085748447]
グラフニューラルネットワーク(GNN)は、様々な現実世界のアプリケーションで顕著な成功を収めている。
GNNは、望ましくないグラフデータに基づいてトレーニングされ、パフォーマンスと信頼性を低下させることができる。
学習不能なGNNのモデルユーティリティをよりよく維持するグラフアンラーニングフレームワークであるGraphRevokerを提案する。
論文 参考訳(メタデータ) (2024-03-12T06:22:10Z) - Loss-aware Curriculum Learning for Heterogeneous Graph Neural Networks [30.333265803394998]
異種グラフニューラルネットワーク(GNN)の性能向上のためのカリキュラム学習手法の適用について検討する。
データの品質をよりよく分類するために、データの全ノードの品質を測定するLTSと呼ばれる損失認識トレーニングスケジュールを設計する。
本研究は,複雑なグラフ構造データ解析のためのHGNNの能力向上のためのカリキュラム学習の有効性を示すものである。
論文 参考訳(メタデータ) (2024-02-29T05:44:41Z) - Label Deconvolution for Node Representation Learning on Large-scale
Attributed Graphs against Learning Bias [75.44877675117749]
本稿では,GNNの逆写像に対する新しい,スケーラブルな近似による学習バイアスを軽減するために,ラベルの効率的な正規化手法,すなわちラベルのデコンボリューション(LD)を提案する。
実験では、LDはOpen Graphデータセットのベンチマークで最先端のメソッドを大幅に上回っている。
論文 参考訳(メタデータ) (2023-09-26T13:09:43Z) - Addressing the Impact of Localized Training Data in Graph Neural
Networks [0.0]
グラフニューラルネットワーク(GNN)は、グラフ構造化データから学習において顕著な成功を収めた。
本稿では,グラフの局所化部分集合に対するGNNのトレーニングの影響を評価することを目的とする。
本稿では,局所化学習データとグラフ推論との分散不一致を最小化する正規化手法を提案する。
論文 参考訳(メタデータ) (2023-07-24T11:04:22Z) - Towards Unsupervised Deep Graph Structure Learning [67.58720734177325]
本稿では,学習したグラフトポロジを外部ガイダンスなしでデータ自身で最適化する,教師なしグラフ構造学習パラダイムを提案する。
具体的には、元のデータから"アンカーグラフ"として学習目標を生成し、対照的な損失を用いてアンカーグラフと学習グラフとの一致を最大化する。
論文 参考訳(メタデータ) (2022-01-17T11:57:29Z) - Distributionally Robust Semi-Supervised Learning Over Graphs [68.29280230284712]
グラフ構造化データに対する半教師付き学習(SSL)は、多くのネットワークサイエンスアプリケーションに現れる。
グラフ上の学習を効率的に管理するために,近年,グラフニューラルネットワーク(GNN)の変種が開発されている。
実際に成功したにも拘わらず、既存の手法のほとんどは、不確実な結節属性を持つグラフを扱うことができない。
ノイズ測定によって得られたデータに関連する分布の不確実性によっても問題が発生する。
分散ロバストな学習フレームワークを開発し,摂動に対する定量的ロバスト性を示すモデルを訓練する。
論文 参考訳(メタデータ) (2021-10-20T14:23:54Z) - Scalable Graph Neural Network Training: The Case for Sampling [4.9201378771958675]
グラフニューラルネットワーク(Graph Neural Networks、GNN)は、グラフ上で学習を行うディープニューラルネットワークアーキテクチャの新しい、ますます普及しているファミリです。
グラフデータの不規則性から、効率的にトレーニングすることは難しい。
文献には、全グラフとサンプルベースのトレーニングという2つの異なるアプローチが登場した。
論文 参考訳(メタデータ) (2021-05-05T20:44:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。