論文の概要: CLEAR: Cluster-based Prompt Learning on Heterogeneous Graphs
- arxiv url: http://arxiv.org/abs/2502.08918v1
- Date: Thu, 13 Feb 2025 03:10:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-14 13:47:46.078550
- Title: CLEAR: Cluster-based Prompt Learning on Heterogeneous Graphs
- Title(参考訳): CLEAR: クラスタベースの不均一グラフによるプロンプト学習
- Authors: Feiyang Wang, Zhongbao Zhang, Junda Ye, Li Sun, Jianzhong Qi,
- Abstract要約: ヘテロジニアスグラフ上のクラスタベースのプロンプトモデルであるCLEARを提案する。
私たちは、同じトレーニング目標を共有するために、プレテキストと下流のタスクを調整します。
下流タスクの実験により、CLEARの優位性が確認された。
- 参考スコア(独自算出の注目度): 19.956925820094177
- License:
- Abstract: Prompt learning has attracted increasing attention in the graph domain as a means to bridge the gap between pretext and downstream tasks. Existing studies on heterogeneous graph prompting typically use feature prompts to modify node features for specific downstream tasks, which do not concern the structure of heterogeneous graphs. Such a design also overlooks information from the meta-paths, which are core to learning the high-order semantics of the heterogeneous graphs. To address these issues, we propose CLEAR, a Cluster-based prompt LEARNING model on heterogeneous graphs. We present cluster prompts that reformulate downstream tasks as heterogeneous graph reconstruction. In this way, we align the pretext and downstream tasks to share the same training objective. Additionally, our cluster prompts are also injected into the meta-paths such that the prompt learning process incorporates high-order semantic information entailed by the meta-paths. Extensive experiments on downstream tasks confirm the superiority of CLEAR. It consistently outperforms state-of-the-art models, achieving up to 5% improvement on the F1 metric for node classification.
- Abstract(参考訳): プリテキストと下流タスクのギャップを埋める手段として、プロンプト学習がグラフ領域で注目を集めている。
ヘテロジニアスグラフをプロンプトする既存の研究は、通常、特定の下流タスクのノード機能を変更するために特徴プロンプトを使用するが、これはヘテロジニアスグラフの構造には関係しない。
このような設計は、異種グラフの高階意味論を学ぶための中核となるメタパスの情報も見落としている。
これらの問題に対処するため、異種グラフ上のクラスタベースのプロンプトLEARNINGモデルであるCLEARを提案する。
下流タスクを異種グラフ再構成として再構成するクラスタプロンプトを提案する。
このように、私たちは同じトレーニング目標を共有するために、プレテキストとダウンストリームのタスクを調整します。
さらに,クラスタプロンプトをメタパスに注入することで,メタパスに関連付けられた高次セマンティック情報をインクルードする。
下流タスクに関する大規模な実験により、CLEARの優位性が確認された。
常に最先端のモデルより優れており、ノード分類のためのF1メートル法で最大5%改善されている。
関連論文リスト
- SPGNN: Recognizing Salient Subgraph Patterns via Enhanced Graph Convolution and Pooling [25.555741218526464]
グラフニューラルネットワーク(GNN)は、グラフやネットワークのような非ユークリッドデータ上での機械学習の分野に革命をもたらした。
本稿では,ノード表現をインジェクティブに更新する結合型グラフ畳み込み機構を提案する。
また,WL-SortPoolと呼ばれるグラフプーリングモジュールを設計し,重要なサブグラフパターンをディープラーニングで学習する。
論文 参考訳(メタデータ) (2024-04-21T13:11:59Z) - Deep Contrastive Graph Learning with Clustering-Oriented Guidance [61.103996105756394]
グラフ畳み込みネットワーク(GCN)は、グラフベースのクラスタリングを改善する上で大きな可能性を秘めている。
モデルはGCNを適用するために初期グラフを事前に推定する。
一般的なデータクラスタリングには,Deep Contrastive Graph Learning (DCGL)モデルが提案されている。
論文 参考訳(メタデータ) (2024-02-25T07:03:37Z) - HetGPT: Harnessing the Power of Prompt Tuning in Pre-Trained Heterogeneous Graph Neural Networks [22.775933880072294]
HetGPTは、グラフニューラルネットワークのトレーニング後プロンプトフレームワークである。
半教師付きノード分類における最先端HGNNの性能を向上させる。
論文 参考訳(メタデータ) (2023-10-23T19:35:57Z) - Redundancy-Free Self-Supervised Relational Learning for Graph Clustering [13.176413653235311]
冗長フリーグラフクラスタリング(R$2$FGC)という,自己教師付き深層グラフクラスタリング手法を提案する。
オートエンコーダとグラフオートエンコーダに基づいて,グローバルビューとローカルビューの両方から属性レベルと構造レベルの関係情報を抽出する。
この実験は,R$2$FGCが最先端のベースラインよりも優れていることを示すために,広く使用されているベンチマークデータセット上で実施されている。
論文 参考訳(メタデータ) (2023-09-09T06:18:50Z) - Homophily-enhanced Structure Learning for Graph Clustering [19.586401211161846]
グラフ構造学習は、欠落したリンクを追加し、スプリアス接続を取り除くことで、入力グラフの精細化を可能にする。
グラフ構造学習におけるこれまでの取り組みは、主に教師付き設定を中心に行われてきた。
グラフクラスタリングのためのtextbfhomophily-enhanced structure textbflearning という新しい手法を提案する。
論文 参考訳(メタデータ) (2023-08-10T02:53:30Z) - Self-supervised Learning for Heterogeneous Graph via Structure
Information based on Metapath [9.757299837675204]
自己教師付き表現学習はこの問題に対処するための潜在的アプローチである。
本稿では,メタパスに基づく構造情報を用いたヘテロジニアスグラフの教師付き学習手法を提案する。
ジャンプ数を予測するために、SESIMはデータ自体を使用してラベルを生成する。
論文 参考訳(メタデータ) (2022-09-09T10:06:18Z) - Towards Unsupervised Deep Graph Structure Learning [67.58720734177325]
本稿では,学習したグラフトポロジを外部ガイダンスなしでデータ自身で最適化する,教師なしグラフ構造学習パラダイムを提案する。
具体的には、元のデータから"アンカーグラフ"として学習目標を生成し、対照的な損失を用いてアンカーグラフと学習グラフとの一致を最大化する。
論文 参考訳(メタデータ) (2022-01-17T11:57:29Z) - Graph Representation Learning via Contrasting Cluster Assignments [57.87743170674533]
GRCCAと呼ばれるクラスタ割り当てを対比して、教師なしグラフ表現モデルを提案する。
クラスタリングアルゴリズムとコントラスト学習を組み合わせることで、局所的およびグローバルな情報を合成的にうまく活用する動機付けがある。
GRCCAは、ほとんどのタスクにおいて強力な競争力を持っている。
論文 参考訳(メタデータ) (2021-12-15T07:28:58Z) - SHGNN: Structure-Aware Heterogeneous Graph Neural Network [77.78459918119536]
本稿では、上記の制約に対処する構造対応不均一グラフニューラルネットワーク(SHGNN)を提案する。
まず,メタパス内の中間ノードの局所構造情報を取得するために,特徴伝搬モジュールを利用する。
次に、ツリーアテンションアグリゲータを使用して、グラフ構造情報をメタパス上のアグリゲーションモジュールに組み込む。
最後に、メタパスアグリゲータを利用して、異なるメタパスから集約された情報を融合する。
論文 参考訳(メタデータ) (2021-12-12T14:18:18Z) - Learning the Implicit Semantic Representation on Graph-Structured Data [57.670106959061634]
グラフ畳み込みネットワークにおける既存の表現学習手法は主に、各ノードの近傍を知覚全体として記述することで設計される。
本稿では,グラフの潜在意味パスを学習することで暗黙的な意味を探索する意味グラフ畳み込みネットワーク(sgcn)を提案する。
論文 参考訳(メタデータ) (2021-01-16T16:18:43Z) - Adaptive Graph Auto-Encoder for General Data Clustering [90.8576971748142]
グラフベースのクラスタリングは、クラスタリング領域において重要な役割を果たす。
グラフ畳み込みニューラルネットワークに関する最近の研究は、グラフ型データにおいて驚くべき成功を収めている。
本稿では,グラフの生成的視点に応じて適応的にグラフを構成する汎用データクラスタリングのためのグラフ自動エンコーダを提案する。
論文 参考訳(メタデータ) (2020-02-20T10:11:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。