論文の概要: Subgraph Pooling: Tackling Negative Transfer on Graphs
- arxiv url: http://arxiv.org/abs/2402.08907v2
- Date: Sat, 4 May 2024 19:41:52 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-07 23:35:58.996310
- Title: Subgraph Pooling: Tackling Negative Transfer on Graphs
- Title(参考訳): グラフポーリング:グラフ上の負の転送に対処する
- Authors: Zehong Wang, Zheyuan Zhang, Chuxu Zhang, Yanfang Ye,
- Abstract要約: 伝達学習は、関連するタスクからの知識を利用することで、目標タスクのパフォーマンスを向上させることを目的としている。
負の転送は、ソースグラフとターゲットグラフがセマンティックな類似性を持つ場合でも、グラフ構造化データで一般的に発生する。
グラフ構造の違いが知識伝達に与える影響を軽減するため,kホップ近傍からサンプリングしたノードとランダムウォークによりサブグラフポーリング++(SP++)を集約してサブグラフポーリング(SP)を導入する。
- 参考スコア(独自算出の注目度): 38.63554842214315
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Transfer learning aims to enhance performance on a target task by using knowledge from related tasks. However, when the source and target tasks are not closely aligned, it can lead to reduced performance, known as negative transfer. Unlike in image or text data, we find that negative transfer could commonly occur in graph-structured data, even when source and target graphs have semantic similarities. Specifically, we identify that structural differences significantly amplify the dissimilarities in the node embeddings across graphs. To mitigate this, we bring a new insight in this paper: for semantically similar graphs, although structural differences lead to significant distribution shift in node embeddings, their impact on subgraph embeddings could be marginal. Building on this insight, we introduce Subgraph Pooling (SP) by aggregating nodes sampled from a k-hop neighborhood and Subgraph Pooling++ (SP++) by a random walk, to mitigate the impact of graph structural differences on knowledge transfer. We theoretically analyze the role of SP in reducing graph discrepancy and conduct extensive experiments to evaluate its superiority under various settings. The proposed SP methods are effective yet elegant, which can be easily applied on top of any backbone Graph Neural Networks (GNNs). Our code and data are available at: https://github.com/Zehong-Wang/Subgraph-Pooling.
- Abstract(参考訳): 伝達学習は、関連するタスクからの知識を利用することで、目標タスクのパフォーマンスを向上させることを目的としている。
しかし、ソースとターゲットタスクが密接に一致していない場合、負の転送として知られるパフォーマンスが低下する可能性がある。
画像データやテキストデータとは異なり、ソースグラフとターゲットグラフがセマンティックな類似性を持つ場合でも、負の転送がグラフ構造化データに一般的に発生する可能性がある。
具体的には、構造的な違いがグラフにまたがるノードの埋め込みにおける相違を著しく増幅することを示す。
意味的に類似したグラフに対して、構造的な違いはノードの埋め込みにおいて大きな分布シフトをもたらすが、サブグラフの埋め込みに対する影響はわずかである。
この知見に基づいて,kホップ近傍からサンプリングされたノードとランダムウォークによってサンプリングされたサブグラフプール++(SP++)を集約することで,グラフ構造の違いが知識伝達に与える影響を緩和する。
グラフの差分低減におけるSPの役割を理論的に解析し,様々な条件下でその優位性を評価するための広範な実験を行う。
提案手法は効率的かつエレガントであり,任意のバックボーングラフニューラルネットワーク(GNN)上に容易に適用可能である。
私たちのコードとデータは、https://github.com/Zehong-Wang/Subgraph-Pooling.comで公開されています。
関連論文リスト
- SPGNN: Recognizing Salient Subgraph Patterns via Enhanced Graph Convolution and Pooling [25.555741218526464]
グラフニューラルネットワーク(GNN)は、グラフやネットワークのような非ユークリッドデータ上での機械学習の分野に革命をもたらした。
本稿では,ノード表現をインジェクティブに更新する結合型グラフ畳み込み機構を提案する。
また,WL-SortPoolと呼ばれるグラフプーリングモジュールを設計し,重要なサブグラフパターンをディープラーニングで学習する。
論文 参考訳(メタデータ) (2024-04-21T13:11:59Z) - Subgraph Networks Based Contrastive Learning [5.736011243152416]
グラフコントラスト学習(GCL)は、注釈付きデータ不足の問題を解決する。
既存のGCL手法の多くは、グラフ拡張戦略や相互情報推定操作の設計に重点を置いている。
サブグラフネットワークに基づくコントラスト学習(SGNCL)という新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-06T08:52:44Z) - Capturing Fine-grained Semantics in Contrastive Graph Representation
Learning [23.861016307326146]
グラフコントラスト学習(Graph contrastive learning)は、類似のインスタンスを閉じて、異種インスタンスをプッシュするコントラストタスクを定義する。
グラフコントラスト学習の既存の方法は、グラフに存在する多様な意味論の違いを無視している。
本稿では, グラフコントラスト学習法(FSGCL)を提案する。
論文 参考訳(メタデータ) (2023-04-23T14:05:05Z) - Stochastic Subgraph Neighborhood Pooling for Subgraph Classification [2.1270496914042996]
Subgraph Neighborhood Pooling (SSNP) は、ラベル付けトリックのような計算コストの高い操作をすることなく、サブグラフとその周辺情報を共同で集約する。
実験により、我々のモデルは、トレーニングにおいて最大3倍高速でありながら、最先端の手法(マージンが最大2%)より優れています。
論文 参考訳(メタデータ) (2023-04-17T18:49:18Z) - You Only Transfer What You Share: Intersection-Induced Graph Transfer
Learning for Link Prediction [79.15394378571132]
従来見過ごされていた現象を調査し、多くの場合、元のグラフに対して密に連結された補グラフを見つけることができる。
より密度の高いグラフは、選択的で有意義な知識を伝達するための自然なブリッジを提供する元のグラフとノードを共有することができる。
この設定をグラフインターセクション誘導トランスファーラーニング(GITL)とみなし,eコマースや学術共同オーサシップ予測の実践的応用に動機づけられた。
論文 参考訳(メタデータ) (2023-02-27T22:56:06Z) - Rethinking Explaining Graph Neural Networks via Non-parametric Subgraph
Matching [68.35685422301613]
そこで我々はMatchExplainerと呼ばれる新しい非パラメトリックな部分グラフマッチングフレームワークを提案し、説明的部分グラフを探索する。
ターゲットグラフと他のインスタンスを結合し、ノードに対応する距離を最小化することで最も重要な結合部分構造を識別する。
合成および実世界のデータセットの実験は、最先端のパラメトリックベースラインをかなりのマージンで上回り、MatchExplainerの有効性を示す。
論文 参考訳(メタデータ) (2023-01-07T05:14:45Z) - DOTIN: Dropping Task-Irrelevant Nodes for GNNs [119.17997089267124]
最近のグラフ学習アプローチでは、学習のためのグラフのサイズを減らすためのプール戦略が導入されている。
我々はDOTIN(underlineDrunderlineopping underlineTask-underlineIrrelevant underlineNodes)と呼ばれる新しいアプローチを設計し、グラフのサイズを減らす。
本手法は,グラフ分類やグラフ編集距離を含むグラフレベルのタスクにおいて,GATを約50%高速化する。
論文 参考訳(メタデータ) (2022-04-28T12:00:39Z) - Deconfounded Training for Graph Neural Networks [98.06386851685645]
本稿では, コンバウンディング効果を緩和し, 臨界情報に対するラッチを緩和する新しいDecon Training(DTP)のパラダイムを提案する。
具体的には、注意モジュールを用いて臨界部分グラフと自明部分グラフをアンタングル化する。
これにより、GNNは、ラベルとの関係が複数のディストリビューションで堅牢である、より信頼性の高いサブグラフをキャプチャできる。
論文 参考訳(メタデータ) (2021-12-30T15:22:35Z) - Scalable Graph Neural Networks for Heterogeneous Graphs [12.44278942365518]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを学習するためのパラメトリックモデルの一般的なクラスである。
最近の研究は、GNNが主に機能をスムースにするためにグラフを使用しており、ベンチマークタスクで競合する結果を示していると主張している。
本研究では、これらの結果が異種グラフに拡張可能かどうかを問うとともに、異なるエンティティ間の複数のタイプの関係を符号化する。
論文 参考訳(メタデータ) (2020-11-19T06:03:35Z) - Inverse Graph Identification: Can We Identify Node Labels Given Graph
Labels? [89.13567439679709]
グラフ識別(GI)は、グラフ学習において長い間研究されており、特定の応用において不可欠である。
本稿では,逆グラフ識別(Inverse Graph Identification, IGI)と呼ばれる新しい問題を定義する。
本稿では,グラフアテンションネットワーク(GAT)を用いたノードレベルのメッセージパッシング処理を,GIのプロトコルの下でシンプルかつ効果的に行う方法を提案する。
論文 参考訳(メタデータ) (2020-07-12T12:06:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。