論文の概要: Prompt Tuning for Multi-View Graph Contrastive Learning
- arxiv url: http://arxiv.org/abs/2310.10362v1
- Date: Mon, 16 Oct 2023 12:58:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-17 14:25:16.675918
- Title: Prompt Tuning for Multi-View Graph Contrastive Learning
- Title(参考訳): マルチビューグラフコントラスト学習のためのプロンプトチューニング
- Authors: Chenghua Gong, Xiang Li, Jianxiang Yu, Cheng Yao, Jiaqi Tan,
Chengcheng Yu, Dawei Yin
- Abstract要約: 「プレトレイン、ファインチューン」や「プレトレイン、プロンプト」のパラダイムがますます一般的になっている。
プリテキストとしてマルチビューグラフのコントラスト学習法を提案し,それのためのプロンプトチューニングを設計する。
- 参考スコア(独自算出の注目度): 26.603430043380204
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, "pre-training and fine-tuning" has emerged as a promising
approach in addressing the issues of label dependency and poor generalization
performance in traditional GNNs. To reduce labeling requirement, the
"pre-train, fine-tune" and "pre-train, prompt" paradigms have become
increasingly common. In particular, prompt tuning is a popular alternative to
"pre-training and fine-tuning" in natural language processing, which is
designed to narrow the gap between pre-training and downstream objectives.
However, existing study of prompting on graphs is still limited, lacking a
framework that can accommodate commonly used graph pre-training methods and
downstream tasks. In this paper, we propose a multi-view graph contrastive
learning method as pretext and design a prompting tuning for it. Specifically,
we first reformulate graph pre-training and downstream tasks into a common
format. Second, we construct multi-view contrasts to capture relevant
information of graphs by GNN. Third, we design a prompting tuning method for
our multi-view graph contrastive learning method to bridge the gap between
pretexts and downsteam tasks. Finally, we conduct extensive experiments on
benchmark datasets to evaluate and analyze our proposed method.
- Abstract(参考訳): 近年,従来のGNNにおけるラベル依存や一般化性能の低下に対処する上で,「事前学習と微調整」が有望なアプローチとして現れている。
ラベル付けの要件を減らすために、"pre-train, fine-tune" と "pre-train, prompt" のパラダイムはますます一般的になっている。
特に、プロンプトチューニングは自然言語処理における「事前学習と微調整」の代替として人気があり、事前学習と下流目標のギャップを狭めるように設計されている。
しかしながら、グラフのプロンプトに関する既存の研究はまだ限られており、一般的に使用されるグラフ事前学習メソッドとダウンストリームタスクに対応可能なフレームワークが欠如している。
本稿では,前文として多視点グラフの対比学習法を提案し,それに対するプロンプトチューニングを設計する。
具体的には、まず、グラフ事前学習および下流タスクを共通のフォーマットに再構成する。
第2に、GNNによるグラフの関連情報を捉えるために、マルチビューコントラストを構築する。
第3に,マルチビューグラフのコントラスト学習のためのプロンプトチューニング手法を設計し,プリテキストとダウンチームタスクのギャップを橋渡しする。
最後に,ベンチマークデータセットを広範囲に実験し,提案手法を評価し分析する。
関連論文リスト
- Non-Homophilic Graph Pre-Training and Prompt Learning [11.996173149569627]
本稿では,好ましくないグラフに対する事前学習と迅速な学習の枠組みであるProNoGを提案する。
まず、既存のグラフ事前学習手法を分析し、事前学習タスクの選択に関する理論的知見を提供する。
第2に,各ノードが特異な非ホモフィル性を示すことを認識し,下流タスクにおけるノード固有のパターンを特徴付ける条件付きネットワークを提案する。
論文 参考訳(メタデータ) (2024-08-22T17:57:31Z) - Inductive Graph Alignment Prompt: Bridging the Gap between Graph
Pre-training and Inductive Fine-tuning From Spectral Perspective [13.277779426525056]
グラフ事前学習と微調整」パラダイムはグラフニューラルネットワーク(GNN)を大幅に改善した
しかし、事前学習と微調整の段階でのデータとタスクの差が大きいため、モデルの性能は依然として限られている。
Inductive Graph Alignment Prompt(IGAP)と呼ばれる新しいグラフプロンプト方式を提案する。
論文 参考訳(メタデータ) (2024-02-21T06:25:54Z) - HetGPT: Harnessing the Power of Prompt Tuning in Pre-Trained
Heterogeneous Graph Neural Networks [24.435068514392487]
HetGPTは、グラフニューラルネットワークのトレーニング後プロンプトフレームワークである。
半教師付きノード分類における最先端HGNNの性能を向上させる。
論文 参考訳(メタデータ) (2023-10-23T19:35:57Z) - SimTeG: A Frustratingly Simple Approach Improves Textual Graph Learning [131.04781590452308]
テキストグラフ学習におけるフラストレーションに富んだアプローチであるSimTeGを提案する。
まず、下流タスクで予め訓練されたLM上で、教師付きパラメータ効率の微調整(PEFT)を行う。
次に、微調整されたLMの最後の隠れ状態を用いてノード埋め込みを生成する。
論文 参考訳(メタデータ) (2023-08-03T07:00:04Z) - Link Prediction without Graph Neural Networks [7.436429318051601]
リンク予測は多くのグラフアプリケーションにおいて基本的なタスクである。
グラフニューラルネットワーク(GNN)がリンク予測の主要なフレームワークとなっている。
グラフ学習による属性情報によって強化されたグラフにトポロジ中心のフレームワークを適用する新しいフレームワークであるGelatoを提案する。
論文 参考訳(メタデータ) (2023-05-23T03:59:21Z) - Similarity-aware Positive Instance Sampling for Graph Contrastive
Pre-training [82.68805025636165]
トレーニングセット内の既存グラフから直接正のグラフインスタンスを選択することを提案する。
私たちの選択は、特定のドメイン固有のペアワイズ類似度測定に基づいています。
さらに,ノードを動的にマスキングしてグラフ上に均等に分配する適応ノードレベルの事前学習手法を開発した。
論文 参考訳(メタデータ) (2022-06-23T20:12:51Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - Bringing Your Own View: Graph Contrastive Learning without Prefabricated
Data Augmentations [94.41860307845812]
Self-supervisionは最近、グラフ学習の新しいフロンティアに力を入れている。
GraphCLは、グラフデータ拡張のアドホックな手作業による選択によって反映されたプレハブ付きプリファブリックを使用する。
グラフ生成器のパラメータ空間における学習可能な連続前処理へと拡張した。
我々は、情報最小化(InfoMin)と情報ボトルネック(InfoBN)の2つの原則を利用して、学習した事前情報を規則化する。
論文 参考訳(メタデータ) (2022-01-04T15:49:18Z) - GraphMI: Extracting Private Graph Data from Graph Neural Networks [59.05178231559796]
GNNを反転させてトレーニンググラフのプライベートグラフデータを抽出することを目的とした textbfGraph textbfModel textbfInversion attack (GraphMI) を提案する。
具体的には,グラフ特徴の空間性と滑らかさを保ちながら,グラフエッジの離散性に対処する勾配モジュールを提案する。
エッジ推論のためのグラフトポロジ、ノード属性、ターゲットモデルパラメータを効率的に活用するグラフ自動エンコーダモジュールを設計する。
論文 参考訳(メタデータ) (2021-06-05T07:07:52Z) - Graph Contrastive Learning with Augmentations [109.23158429991298]
グラフデータの教師なし表現を学習するためのグラフコントラスト学習(GraphCL)フレームワークを提案する。
我々のフレームワークは、最先端の手法と比較して、類似またはより良い一般化可能性、転送可能性、堅牢性のグラフ表現を作成できることを示す。
論文 参考訳(メタデータ) (2020-10-22T20:13:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。