論文の概要: Transfer Learning on Edge Connecting Probability Estimation under Graphon Model
- arxiv url: http://arxiv.org/abs/2510.05527v1
- Date: Tue, 07 Oct 2025 02:37:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-08 17:57:08.07022
- Title: Transfer Learning on Edge Connecting Probability Estimation under Graphon Model
- Title(参考訳): グラフオンモデルによるエッジ接続確率推定の伝達学習
- Authors: Yuyao Wang, Yu-Hung Cheng, Debarghya Mukherjee, Huimin Cheng,
- Abstract要約: 本稿では,グラフ間の構造パターンの整合と伝達を行うため,近傍の平滑化とGromov-Wassersteinの最適輸送を統合した伝達学習フレームワークを提案する。
GTRANSには適応的脱バイアス機構があり、残留な平滑化を通じて標的特異的な偏差を識別し修正する。
これらの改善は、グラフ分類タスクやリンク予測タスクなど、下流アプリケーションの性能向上に直接寄与する。
- 参考スコア(独自算出の注目度): 7.805468525082696
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graphon models provide a flexible nonparametric framework for estimating latent connectivity probabilities in networks, enabling a range of downstream applications such as link prediction and data augmentation. However, accurate graphon estimation typically requires a large graph, whereas in practice, one often only observes a small-sized network. One approach to addressing this issue is to adopt a transfer learning framework, which aims to improve estimation in a small target graph by leveraging structural information from a larger, related source graph. In this paper, we propose a novel method, namely GTRANS, a transfer learning framework that integrates neighborhood smoothing and Gromov-Wasserstein optimal transport to align and transfer structural patterns between graphs. To prevent negative transfer, GTRANS includes an adaptive debiasing mechanism that identifies and corrects for target-specific deviations via residual smoothing. We provide theoretical guarantees on the stability of the estimated alignment matrix and demonstrate the effectiveness of GTRANS in improving the accuracy of target graph estimation through extensive synthetic and real data experiments. These improvements translate directly to enhanced performance in downstream applications, such as the graph classification task and the link prediction task.
- Abstract(参考訳): Graphonモデルは、ネットワーク内の遅延接続確率を推定するための柔軟な非パラメトリックフレームワークを提供する。
しかし、正確なグルーポン推定は通常大きなグラフを必要とするが、実際には小さなネットワークしか観測しないことが多い。
この問題に対処する1つのアプローチは、より大きな関連するソースグラフの構造情報を活用することで、小さなターゲットグラフにおける推定を改善することを目的とした、転送学習フレームワークを採用することである。
本稿では,グラフ間の構造パターンの整合と伝達のために,近傍の平滑化とGromov-Wasserstein最適輸送を統合した移動学習フレームワークGTRANSを提案する。
負の移動を防止するため、GTRANSは、残留スムーシングを介して標的特異的な偏差を識別し、補正する適応的脱バイアス機構を含む。
本稿では,推定アライメント行列の安定性に関する理論的保証を提供し,GTRANSの有効性を示す。
これらの改善は、グラフ分類タスクやリンク予測タスクなど、下流アプリケーションの性能向上に直接寄与する。
関連論文リスト
- Regularized Adaptive Graph Learning for Large-Scale Traffic Forecasting [5.212619320601785]
トラフィック予測のための正規化適応グラフ学習(RAG)モデルを提案する。
RAGLは予測精度の点で最先端の手法を一貫して上回り、競争力のある計算効率を示す。
4つの大規模実世界の交通データセットの実験により、RAGLは予測精度において最先端の手法を一貫して上回り、競争力のある計算効率を示すことが示された。
論文 参考訳(メタデータ) (2025-06-08T14:58:27Z) - Smoothness Really Matters: A Simple Yet Effective Approach for Unsupervised Graph Domain Adaptation [28.214010408550394]
Unsupervised Graph Domain Adaptation (UGDA)は、ラベル付きソースグラフからの知識をラベル付きターゲットグラフに転送することで、ドメイン間の分散シフトをブリッジする。
TDSS(Target-Domain Structure Smoothing)と呼ばれるUGDAのための新しいアプローチを提案する。
TDSSは、ターゲットグラフ上で直接構造的滑らか化を行うための、シンプルで効果的な方法である。
論文 参考訳(メタデータ) (2024-12-16T10:56:58Z) - Deep Prompt Tuning for Graph Transformers [55.2480439325792]
ファインチューニングはリソース集約型であり、大きなモデルのコピーを複数保存する必要がある。
ファインチューニングの代替として,ディープグラフプロンプトチューニングと呼ばれる新しい手法を提案する。
事前学習したパラメータを凍結し、追加したトークンのみを更新することにより、フリーパラメータの数を減らし、複数のモデルコピーを不要にする。
論文 参考訳(メタデータ) (2023-09-18T20:12:17Z) - CONVERT:Contrastive Graph Clustering with Reliable Augmentation [110.46658439733106]
信頼性オーグメンテーション(CONVERT)を用いたContrastiVe Graph ClustEringネットワークを提案する。
本手法では,データ拡張を可逆的パーターブ・リカバリネットワークにより処理する。
セマンティクスの信頼性をさらに保証するために、ネットワークを制約する新たなセマンティクス損失が提示される。
論文 参考訳(メタデータ) (2023-08-17T13:07:09Z) - You Only Transfer What You Share: Intersection-Induced Graph Transfer
Learning for Link Prediction [79.15394378571132]
従来見過ごされていた現象を調査し、多くの場合、元のグラフに対して密に連結された補グラフを見つけることができる。
より密度の高いグラフは、選択的で有意義な知識を伝達するための自然なブリッジを提供する元のグラフとノードを共有することができる。
この設定をグラフインターセクション誘導トランスファーラーニング(GITL)とみなし,eコマースや学術共同オーサシップ予測の実践的応用に動機づけられた。
論文 参考訳(メタデータ) (2023-02-27T22:56:06Z) - Optimal Propagation for Graph Neural Networks [51.08426265813481]
最適グラフ構造を学習するための二段階最適化手法を提案する。
また、時間的複雑さをさらに軽減するために、低ランク近似モデルについても検討する。
論文 参考訳(メタデータ) (2022-05-06T03:37:00Z) - A Graph Data Augmentation Strategy with Entropy Preserving [11.886325179121226]
本稿では,グラフ間の特徴情報を評価するための定量的指標として,新しいグラフエントロピー定義を提案する。
グラフエントロピーの保存を考慮し、摂動機構を用いてトレーニングデータを生成する効果的な方法を提案する。
提案手法はトレーニング過程におけるGCNの堅牢性と一般化能力を大幅に向上させる。
論文 参考訳(メタデータ) (2021-07-13T12:58:32Z) - Training Robust Graph Neural Networks with Topology Adaptive Edge
Dropping [116.26579152942162]
グラフニューラルネットワーク(GNN)は、グラフ構造情報を利用してネットワークデータから表現をモデル化する処理アーキテクチャである。
彼らの成功にもかかわらず、GNNは限られた訓練データから得られる準最適一般化性能に悩まされている。
本稿では、一般化性能を改善し、堅牢なGNNモデルを学習するためのトポロジ適応エッジドロップ法を提案する。
論文 参考訳(メタデータ) (2021-06-05T13:20:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。