論文の概要: Contrastive Graph Few-Shot Learning
- arxiv url: http://arxiv.org/abs/2210.00084v1
- Date: Fri, 30 Sep 2022 20:40:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 16:09:44.012467
- Title: Contrastive Graph Few-Shot Learning
- Title(参考訳): コントラストグラフ マイトショット学習
- Authors: Chunhui Zhang, Hongfu Liu, Jundong Li, Yanfang Ye, Chuxu Zhang
- Abstract要約: グラフマイニングタスクのためのコントラストグラフFew-shot Learningフレームワーク(CGFL)を提案する。
CGFLは、データ表現を自己管理的に学習し、分散シフトの影響を緩和し、より良い一般化を行う。
総合的な実験により、CGFLはいくつかのグラフマイニングタスクにおいて最先端のベースラインより優れていることが示された。
- 参考スコア(独自算出の注目度): 67.01464711379187
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Prevailing deep graph learning models often suffer from label sparsity issue.
Although many graph few-shot learning (GFL) methods have been developed to
avoid performance degradation in face of limited annotated data, they
excessively rely on labeled data, where the distribution shift in the test
phase might result in impaired generalization ability. Additionally, they lack
a general purpose as their designs are coupled with task or data-specific
characteristics. To this end, we propose a general and effective Contrastive
Graph Few-shot Learning framework (CGFL). CGFL leverages a self-distilled
contrastive learning procedure to boost GFL. Specifically, our model firstly
pre-trains a graph encoder with contrastive learning using unlabeled data.
Later, the trained encoder is frozen as a teacher model to distill a student
model with a contrastive loss. The distilled model is finally fed to GFL. CGFL
learns data representation in a self-supervised manner, thus mitigating the
distribution shift impact for better generalization and making model task and
data-independent for a general graph mining purpose. Furthermore, we introduce
an information-based method to quantitatively measure the capability of CGFL.
Comprehensive experiments demonstrate that CGFL outperforms state-of-the-art
baselines on several graph mining tasks in the few-shot scenario. We also
provide quantitative measurement of CGFL's success.
- Abstract(参考訳): ディープグラフ学習モデルは、しばしばラベル空間の問題に悩まされる。
限られたアノテートデータに対する性能劣化を回避するために多くのグラフスショットラーニング(GFL)法が開発されているが、テストフェーズにおける分布シフトが一般化能力を損なう可能性があるラベル付きデータに過度に依存している。
さらに、設計とタスクやデータ固有の特徴が結合されているため、汎用的な目的が欠如している。
そこで本研究では,汎用かつ効果的なコントラストグラフ・マイノショット学習フレームワーク(cgfl)を提案する。
CGFLは自己蒸留型コントラスト学習法を利用してGFLを強化する。
具体的には,ラベルなしデータを用いたコントラスト学習を用いて,まずグラフエンコーダを事前学習する。
その後、訓練されたエンコーダを教師モデルとして凍結し、対照的な損失で生徒モデルを蒸留する。
蒸留されたモデルは最終的にGFLに供給される。
cgflは自己教師方式でデータ表現を学習し、分散シフトの影響を緩和し、より一般化し、汎用グラフマイニングのためにモデルタスクとデータ独立性を持たせる。
さらに,cgflの能力を定量的に測定するための情報ベース手法を提案する。
包括的な実験により、cgflがいくつかのグラフマイニングタスクで最先端のベースラインを上回ることが証明された。
また,CGFLの成功を定量的に測定する。
関連論文リスト
- GraphGuard: Detecting and Counteracting Training Data Misuse in Graph
Neural Networks [69.97213941893351]
グラフデータ分析におけるグラフニューラルネットワーク(GNN)の出現は、モデルトレーニング中のデータ誤用に関する重要な懸念を引き起こしている。
既存の手法は、データ誤用検出または緩和のいずれかに対応しており、主にローカルGNNモデル用に設計されている。
本稿では,これらの課題に対処するため,GraphGuardという先駆的なアプローチを導入する。
論文 参考訳(メタデータ) (2023-12-13T02:59:37Z) - Self-Pro: A Self-Prompt and Tuning Framework for Graph Neural Networks [10.794305560114903]
Self-Promptは、モデルとデータ自体に基づいたグラフのプロンプトフレームワークである。
非対称なグラフコントラスト学習を導入し、不均質に対処し、プリテキストと下流タスクの目的を整合させる。
11のベンチマークデータセットに対する広範な実験を行い、その優位性を実証する。
論文 参考訳(メタデータ) (2023-10-16T12:58:04Z) - Model Inversion Attacks against Graph Neural Networks [65.35955643325038]
グラフニューラルネットワーク(GNN)に対するモデル反転攻撃について検討する。
本稿では,プライベートトレーニンググラフデータを推測するためにGraphMIを提案する。
実験の結果,このような防御効果は十分ではないことが示され,プライバシー攻撃に対するより高度な防御が求められている。
論文 参考訳(メタデータ) (2022-09-16T09:13:43Z) - Features Based Adaptive Augmentation for Graph Contrastive Learning [0.0]
自己監督学習は、グラフ表現学習における高価なアノテーションの必要性を排除することを目的としている。
機能に基づく適応拡張(FebAA)アプローチを導入し、潜在的に影響力のある機能を特定し保存する。
8つのグラフ表現学習のベンチマークデータセットにおいて,GRACEとBGRLの精度を向上させることに成功した。
論文 参考訳(メタデータ) (2022-07-05T03:41:20Z) - Bringing Your Own View: Graph Contrastive Learning without Prefabricated
Data Augmentations [94.41860307845812]
Self-supervisionは最近、グラフ学習の新しいフロンティアに力を入れている。
GraphCLは、グラフデータ拡張のアドホックな手作業による選択によって反映されたプレハブ付きプリファブリックを使用する。
グラフ生成器のパラメータ空間における学習可能な連続前処理へと拡張した。
我々は、情報最小化(InfoMin)と情報ボトルネック(InfoBN)の2つの原則を利用して、学習した事前情報を規則化する。
論文 参考訳(メタデータ) (2022-01-04T15:49:18Z) - CCGL: Contrastive Cascade Graph Learning [25.43615673424728]
Contrastive Cascade Graph Learning (CCGL)は、カスケードグラフ表現学習のための新しいフレームワークである。
CCGLは、自己教師付きコントラスト事前学習を通じて、グラフカスケードタスクの汎用モデルを学ぶ。
ラベル付きデータを用いた微調整によりタスク固有のカスケードモデルを学習する。
論文 参考訳(メタデータ) (2021-07-27T03:37:50Z) - GraphMI: Extracting Private Graph Data from Graph Neural Networks [59.05178231559796]
GNNを反転させてトレーニンググラフのプライベートグラフデータを抽出することを目的とした textbfGraph textbfModel textbfInversion attack (GraphMI) を提案する。
具体的には,グラフ特徴の空間性と滑らかさを保ちながら,グラフエッジの離散性に対処する勾配モジュールを提案する。
エッジ推論のためのグラフトポロジ、ノード属性、ターゲットモデルパラメータを効率的に活用するグラフ自動エンコーダモジュールを設計する。
論文 参考訳(メタデータ) (2021-06-05T07:07:52Z) - GraphFL: A Federated Learning Framework for Semi-Supervised Node
Classification on Graphs [48.13100386338979]
グラフ上の半教師付きノード分類のための最初のFLフレームワークであるGraphFLを提案する。
本稿では,グラフデータの非IID問題に対処する2つのGraphFL法を提案し,そのタスクを新しいラベルドメインで処理する。
代表グラフニューラルネットワークをGraphSSC法として採用し,複数のグラフデータセット上でGraphFLを評価する。
論文 参考訳(メタデータ) (2020-12-08T03:13:29Z) - Sub-graph Contrast for Scalable Self-Supervised Graph Representation
Learning [21.0019144298605]
既存のグラフニューラルネットワークは、計算量やメモリコストが限られているため、完全なグラフデータで供給される。
textscSubg-Conは、中央ノードとそのサンプルサブグラフ間の強い相関を利用して、地域構造情報をキャプチャすることで提案される。
既存のグラフ表現学習アプローチと比較して、textscSubg-Conは、より弱い監視要件、モデル学習のスケーラビリティ、並列化において、顕著なパフォーマンス上のアドバンテージを持っています。
論文 参考訳(メタデータ) (2020-09-22T01:58:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。