論文の概要: Prompt Tuning for Multi-View Graph Contrastive Learning
- arxiv url: http://arxiv.org/abs/2310.10362v1
- Date: Mon, 16 Oct 2023 12:58:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-17 14:25:16.675918
- Title: Prompt Tuning for Multi-View Graph Contrastive Learning
- Title(参考訳): マルチビューグラフコントラスト学習のためのプロンプトチューニング
- Authors: Chenghua Gong, Xiang Li, Jianxiang Yu, Cheng Yao, Jiaqi Tan,
Chengcheng Yu, Dawei Yin
- Abstract要約: 「プレトレイン、ファインチューン」や「プレトレイン、プロンプト」のパラダイムがますます一般的になっている。
プリテキストとしてマルチビューグラフのコントラスト学習法を提案し,それのためのプロンプトチューニングを設計する。
- 参考スコア(独自算出の注目度): 26.603430043380204
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, "pre-training and fine-tuning" has emerged as a promising
approach in addressing the issues of label dependency and poor generalization
performance in traditional GNNs. To reduce labeling requirement, the
"pre-train, fine-tune" and "pre-train, prompt" paradigms have become
increasingly common. In particular, prompt tuning is a popular alternative to
"pre-training and fine-tuning" in natural language processing, which is
designed to narrow the gap between pre-training and downstream objectives.
However, existing study of prompting on graphs is still limited, lacking a
framework that can accommodate commonly used graph pre-training methods and
downstream tasks. In this paper, we propose a multi-view graph contrastive
learning method as pretext and design a prompting tuning for it. Specifically,
we first reformulate graph pre-training and downstream tasks into a common
format. Second, we construct multi-view contrasts to capture relevant
information of graphs by GNN. Third, we design a prompting tuning method for
our multi-view graph contrastive learning method to bridge the gap between
pretexts and downsteam tasks. Finally, we conduct extensive experiments on
benchmark datasets to evaluate and analyze our proposed method.
- Abstract(参考訳): 近年,従来のGNNにおけるラベル依存や一般化性能の低下に対処する上で,「事前学習と微調整」が有望なアプローチとして現れている。
ラベル付けの要件を減らすために、"pre-train, fine-tune" と "pre-train, prompt" のパラダイムはますます一般的になっている。
特に、プロンプトチューニングは自然言語処理における「事前学習と微調整」の代替として人気があり、事前学習と下流目標のギャップを狭めるように設計されている。
しかしながら、グラフのプロンプトに関する既存の研究はまだ限られており、一般的に使用されるグラフ事前学習メソッドとダウンストリームタスクに対応可能なフレームワークが欠如している。
本稿では,前文として多視点グラフの対比学習法を提案し,それに対するプロンプトチューニングを設計する。
具体的には、まず、グラフ事前学習および下流タスクを共通のフォーマットに再構成する。
第2に、GNNによるグラフの関連情報を捉えるために、マルチビューコントラストを構築する。
第3に,マルチビューグラフのコントラスト学習のためのプロンプトチューニング手法を設計し,プリテキストとダウンチームタスクのギャップを橋渡しする。
最後に,ベンチマークデータセットを広範囲に実験し,提案手法を評価し分析する。
関連論文リスト
- Inductive Graph Alignment Prompt: Bridging the Gap between Graph
Pre-training and Inductive Fine-tuning From Spectral Perspective [13.277779426525056]
グラフ事前学習と微調整」パラダイムはグラフニューラルネットワーク(GNN)を大幅に改善した
しかし、事前学習と微調整の段階でのデータとタスクの差が大きいため、モデルの性能は依然として限られている。
Inductive Graph Alignment Prompt(IGAP)と呼ばれる新しいグラフプロンプト方式を提案する。
論文 参考訳(メタデータ) (2024-02-21T06:25:54Z) - Deep Prompt Tuning for Graph Transformers [55.2480439325792]
ファインチューニングはリソース集約型であり、大きなモデルのコピーを複数保存する必要がある。
ファインチューニングの代替として,ディープグラフプロンプトチューニングと呼ばれる新しい手法を提案する。
事前学習したパラメータを凍結し、追加したトークンのみを更新することにより、フリーパラメータの数を減らし、複数のモデルコピーを不要にする。
論文 参考訳(メタデータ) (2023-09-18T20:12:17Z) - SimTeG: A Frustratingly Simple Approach Improves Textual Graph Learning [131.04781590452308]
テキストグラフ学習におけるフラストレーションに富んだアプローチであるSimTeGを提案する。
まず、下流タスクで予め訓練されたLM上で、教師付きパラメータ効率の微調整(PEFT)を行う。
次に、微調整されたLMの最後の隠れ状態を用いてノード埋め込みを生成する。
論文 参考訳(メタデータ) (2023-08-03T07:00:04Z) - All in One: Multi-task Prompting for Graph Neural Networks [30.457491401821652]
本稿では,グラフモデルのための新しいマルチタスクプロンプト手法を提案する。
まず、グラフプロンプトと言語プロンプトのフォーマットを、プロンプトトークン、トークン構造、挿入パターンで統一する。
次に、様々なグラフアプリケーションのタスク空間を調査し、下流の問題をグラフレベルのタスクに再構成する。
論文 参考訳(メタデータ) (2023-07-04T06:27:31Z) - SGL-PT: A Strong Graph Learner with Graph Prompt Tuning [36.650472660276]
そこで我々は,SGL-PTという新しいフレームワークを提案し,学習戦略であるPre-train, Prompt, Predict'に従う。
具体的には、生成的かつコントラスト的な自己教師付きグラフ学習の相補的メリットを得られるSGLと呼ばれる、強力で普遍的な事前学習タスクを提起する。
また, グラフ分類タスクを目標として, 事前学習と微調整を統一し, 従来のテキストタスクと同様の形式で下流タスクを再構成する, 新たな動詞フリープロンプト関数を設計する。
論文 参考訳(メタデータ) (2023-02-24T04:31:18Z) - GraphPrompt: Unifying Pre-Training and Downstream Tasks for Graph Neural
Networks [16.455234748896157]
GraphPromptは、グラフに関する新しい事前トレーニングおよびプロンプトフレームワークである。
トレーニング済みタスクとダウンストリームタスクを共通タスクテンプレートに統合する。
また、トレーニング前のモデルから最も関連性の高い知識を見つけるために、下流タスクを支援するための学習可能なプロンプトも採用している。
論文 参考訳(メタデータ) (2023-02-16T02:51:38Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - Training Free Graph Neural Networks for Graph Matching [103.45755859119035]
TFGMは、グラフニューラルネットワーク(GNN)ベースのグラフマッチングのパフォーマンスをトレーニングなしで向上するフレームワークである。
TFGMをさまざまなGNNに適用することは、ベースラインよりも有望な改善を示している。
論文 参考訳(メタデータ) (2022-01-14T09:04:46Z) - Learnable Graph Matching: Incorporating Graph Partitioning with Deep
Feature Learning for Multiple Object Tracking [58.30147362745852]
フレーム間のデータアソシエーションは、Multiple Object Tracking(MOT)タスクの中核にある。
既存の手法は、主にトラックレットとフレーム内検出の間のコンテキスト情報を無視する。
そこで本研究では,学習可能なグラフマッチング手法を提案する。
論文 参考訳(メタデータ) (2021-03-30T08:58:45Z) - GCC: Graph Contrastive Coding for Graph Neural Network Pre-Training [62.73470368851127]
グラフ表現学習は現実世界の問題に対処する強力な手法として登場した。
自己教師付きグラフニューラルネットワーク事前トレーニングフレームワークであるGraph Contrastive Codingを設計する。
3つのグラフ学習タスクと10のグラフデータセットについて実験を行った。
論文 参考訳(メタデータ) (2020-06-17T16:18:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。