論文の概要: Non-IID Transfer Learning on Graphs
- arxiv url: http://arxiv.org/abs/2212.08174v1
- Date: Thu, 15 Dec 2022 22:29:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-19 15:57:27.619041
- Title: Non-IID Transfer Learning on Graphs
- Title(参考訳): グラフ上の非iid転送学習
- Authors: Jun Wu, Jingrui He, Elizabeth Ainsworth
- Abstract要約: トランスファーラーニング(Transfer learning)とは、関連するソースドメインからターゲットドメインへの知識の転送を指す。
本稿では、ソースグラフからターゲットグラフへのクロスネットワーク変換学習のための厳密な一般化境界とアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 35.84135001172101
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Transfer learning refers to the transfer of knowledge or information from a
relevant source domain to a target domain. However, most existing transfer
learning theories and algorithms focus on IID tasks, where the source/target
samples are assumed to be independent and identically distributed. Very little
effort is devoted to theoretically studying the knowledge transferability on
non-IID tasks, e.g., cross-network mining. To bridge the gap, in this paper, we
propose rigorous generalization bounds and algorithms for cross-network
transfer learning from a source graph to a target graph. The crucial idea is to
characterize the cross-network knowledge transferability from the perspective
of the Weisfeiler-Lehman graph isomorphism test. To this end, we propose a
novel Graph Subtree Discrepancy to measure the graph distribution shift between
source and target graphs. Then the generalization error bounds on cross-network
transfer learning, including both cross-network node classification and link
prediction tasks, can be derived in terms of the source knowledge and the Graph
Subtree Discrepancy across domains. This thereby motivates us to propose a
generic graph adaptive network (GRADE) to minimize the distribution shift
between source and target graphs for cross-network transfer learning.
Experimental results verify the effectiveness and efficiency of our GRADE
framework on both cross-network node classification and cross-domain
recommendation tasks.
- Abstract(参考訳): トランスファーラーニング(Transfer learning)とは、関連するソースドメインからターゲットドメインへの知識や情報の転送を指す。
しかし、既存の移動学習理論やアルゴリズムは、ソース/ターゲットサンプルが独立して同一に分散していると仮定されるIDDタスクに重点を置いている。
クロスネットワークマイニングなど、IID以外のタスクにおける知識伝達可能性に関する理論的研究はほとんど行われていない。
本稿では,このギャップを埋めるために,ソースグラフから対象グラフへのクロスネットワーク転送学習のための厳密な一般化境界とアルゴリズムを提案する。
重要なアイデアは、ワイスファイラー・リーマングラフ同型テストの観点から、クロスネットワークの知識伝達可能性を特徴づけることである。
そこで本研究では,ソースグラフとターゲットグラフのグラフ分布シフトを測定するためのグラフサブツリー離散性を提案する。
次に、クロスネットワークノード分類とリンク予測タスクの両方を含む、クロスネットワーク転送学習の一般化誤差を、ソース知識とドメイン間のグラフサブツリー離散性の観点から導出することができる。
これにより、クロスネットワーク転送学習のためのソースとターゲットグラフ間の分布シフトを最小限に抑える汎用グラフ適応ネットワーク(グレード)を提案する動機付けとなる。
ネットワーク間ノード分類とドメイン間リコメンデーションの両方におけるGRADEフレームワークの有効性と効率を実験的に検証した。
関連論文リスト
- DELTA: Dual Consistency Delving with Topological Uncertainty for Active Graph Domain Adaptation [14.61592658071535]
そこで本研究では,対象グラフ上の情報ノードを定量化して追加アノテーションを付加する,アクティブグラフ領域適応の問題について検討する。
この問題は、複雑なトポロジカルな関係とグラフ間の分布差のため、非常に難しい。
グラフ領域適応のためのDELTA(Dual Consistency Delving with Topological Uncertainty)という新しい手法を提案する。
論文 参考訳(メタデータ) (2024-09-13T16:06:18Z) - Multi-source Unsupervised Domain Adaptation on Graphs with Transferability Modeling [35.39202826643388]
本稿では、グラフモデリングに基づくドメインセレクタ、サブグラフノードセレクタ、およびバイレベルアライメント目的を備えた、グラフのためのSelective Multi-source Adaptation for Graph(method)を提案する。
5つのグラフデータセットの結果から,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2024-06-14T22:05:21Z) - GNN-LoFI: a Novel Graph Neural Network through Localized Feature-based
Histogram Intersection [51.608147732998994]
グラフニューラルネットワークは、グラフベースの機械学習の選択フレームワークになりつつある。
本稿では,古典的メッセージパッシングに代えて,ノード特徴の局所分布を解析するグラフニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-01-17T13:04:23Z) - Domain Adaptive Graph Classification [0.0]
本稿では,グラフトポロジを二分枝から探索し,二分枝学習による領域差を緩和するDual Adversarial Graph Representation Learning(DAGRL)を提案する。
提案手法では,適応的な摂動を二重分岐に組み込み,ソースとターゲット分布をドメインの整合性に対応させる。
論文 参考訳(メタデータ) (2023-12-21T02:37:56Z) - Domain-adaptive Message Passing Graph Neural Network [67.35534058138387]
クロスネットワークノード分類(CNNC)は、豊富なラベルを持つソースネットワークから知識を転送することで、ラベル不足のターゲットネットワーク内のノードを分類することを目的としている。
本稿では,グラフニューラルネットワーク(GNN)と条件付き対向ドメイン適応を統合したドメイン適応型メッセージパッシンググラフニューラルネットワーク(DM-GNN)を提案する。
論文 参考訳(メタデータ) (2023-08-31T05:26:08Z) - You Only Transfer What You Share: Intersection-Induced Graph Transfer
Learning for Link Prediction [79.15394378571132]
従来見過ごされていた現象を調査し、多くの場合、元のグラフに対して密に連結された補グラフを見つけることができる。
より密度の高いグラフは、選択的で有意義な知識を伝達するための自然なブリッジを提供する元のグラフとノードを共有することができる。
この設定をグラフインターセクション誘導トランスファーラーニング(GITL)とみなし,eコマースや学術共同オーサシップ予測の実践的応用に動機づけられた。
論文 参考訳(メタデータ) (2023-02-27T22:56:06Z) - GCC: Graph Contrastive Coding for Graph Neural Network Pre-Training [62.73470368851127]
グラフ表現学習は現実世界の問題に対処する強力な手法として登場した。
自己教師付きグラフニューラルネットワーク事前トレーニングフレームワークであるGraph Contrastive Codingを設計する。
3つのグラフ学習タスクと10のグラフデータセットについて実験を行った。
論文 参考訳(メタデータ) (2020-06-17T16:18:35Z) - Tensor Graph Convolutional Networks for Multi-relational and Robust
Learning [74.05478502080658]
本稿では,テンソルで表されるグラフの集合に関連するデータから,スケーラブルな半教師付き学習(SSL)を実現するためのテンソルグラフ畳み込みネットワーク(TGCN)を提案する。
提案アーキテクチャは、標準的なGCNと比較して大幅に性能が向上し、最先端の敵攻撃に対処し、タンパク質間相互作用ネットワーク上でのSSL性能が著しく向上する。
論文 参考訳(メタデータ) (2020-03-15T02:33:21Z) - Graph Representation Learning via Graphical Mutual Information
Maximization [86.32278001019854]
本稿では,入力グラフとハイレベルな隠蔽表現との相関を測る新しい概念であるGMIを提案する。
我々は,グラフニューラルエンコーダの入力と出力の間でGMIを最大化することで訓練された教師なし学習モデルを開発する。
論文 参考訳(メタデータ) (2020-02-04T08:33:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。