論文の概要: Cooperative Network Learning for Large-Scale and Decentralized Graphs
- arxiv url: http://arxiv.org/abs/2311.02117v2
- Date: Tue, 7 Nov 2023 08:50:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-08 12:21:56.353832
- Title: Cooperative Network Learning for Large-Scale and Decentralized Graphs
- Title(参考訳): 大規模分散グラフのための協調ネットワーク学習
- Authors: Qiang Wu, Yiming Huang, Yujie Zeng, Yijie Teng, Fang Zhou, Linyuan
L\"u
- Abstract要約: 協調ネットワーク学習(CNL)フレームワークを導入し,グラフタスクに対するセキュアなグラフ計算を実現する。
CNLは、GNNコンピューティングのローカルおよびグローバルな視点と、エージェンシーのための分散データを統合する。
このフレームワークは、グラフ関連の研究におけるプライバシー問題に対処し、分散化されたグラフデータ構造を統合することを願っている。
- 参考スコア(独自算出の注目度): 7.628975821850447
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph research, the systematic study of interconnected data points
represented as graphs, plays a vital role in capturing intricate relationships
within networked systems. However, in the real world, as graphs scale up,
concerns about data security among different data-owning agencies arise,
hindering information sharing and, ultimately, the utilization of graph data.
Therefore, establishing a mutual trust mechanism among graph agencies is
crucial for unlocking the full potential of graphs. Here, we introduce a
Cooperative Network Learning (CNL) framework to ensure secure graph computing
for various graph tasks. Essentially, this CNL framework unifies the local and
global perspectives of GNN computing with distributed data for an agency by
virtually connecting all participating agencies as a global graph without a
fixed central coordinator. Inter-agency computing is protected by various
technologies inherent in our framework, including homomorphic encryption and
secure transmission. Moreover, each agency has a fair right to design or employ
various graph learning models from its local or global perspective. Thus, CNL
can collaboratively train GNN models based on decentralized graphs inferred
from local and global graphs. Experiments on contagion dynamics prediction and
traditional graph tasks (i.e., node classification and link prediction)
demonstrate that our CNL architecture outperforms state-of-the-art GNNs
developed at individual sites, revealing that CNL can provide a reliable, fair,
secure, privacy-preserving, and global perspective to build effective and
personalized models for network applications. We hope this framework will
address privacy concerns in graph-related research and integrate decentralized
graph data structures to benefit the network research community in cooperation
and innovation.
- Abstract(参考訳): グラフ研究(グラフとして表される相互接続されたデータポイントの体系的研究)は、ネットワークシステム内の複雑な関係を捉える上で重要な役割を果たす。
しかし、グラフのスケールアップに伴って、異なるデータ所有機関間のデータセキュリティに関する懸念が生まれ、情報共有が妨げられ、最終的にはグラフデータの利用が妨げられる。
したがって,グラフ機関間の相互信頼機構の確立は,グラフの潜在能力を最大限に活用するために重要である。
本稿では,協調ネットワーク学習(CNL)フレームワークを導入し,グラフタスクに対するセキュアなグラフ計算を実現する。
基本的に、このcnlフレームワークは、gnnコンピューティングのローカルおよびグローバルな観点と、すべての参加機関を固定された中央コーディネータなしでグローバルグラフとして仮想接続することにより、機関のための分散データを統合する。
緊急間コンピューティングは、同型暗号化やセキュアトランスミッションなど、我々のフレームワークに固有の様々な技術によって保護されている。
さらに、各機関は、現地またはグローバルの観点から様々なグラフ学習モデルを設計または採用する公正な権利を有する。
これにより、CNLは局所グラフとグローバルグラフから推定される分散グラフに基づいてGNNモデルを協調的に訓練することができる。
感染動態予測と従来のグラフタスク(ノード分類とリンク予測)の実験は、我々のCNLアーキテクチャが個々のサイトで開発された最先端のGNNよりも優れており、ネットワークアプリケーションのための効果的でパーソナライズされたモデルを構築するために信頼性があり、公正で、セキュアで、プライバシ保護され、グローバルな視点を提供できることを示した。
このフレームワークがグラフ関連研究におけるプライバシの懸念に対処し、分散グラフデータ構造を統合することで、ネットワーク研究コミュニティの協力とイノベーションの恩恵を受けることを願っています。
関連論文リスト
- Privacy-preserving design of graph neural networks with applications to
vertical federated learning [56.74455367682945]
VESPERと呼ばれるエンドツーエンドのグラフ表現学習フレームワークを提案する。
VESPERは、適切なプライバシー予算の下でスパースグラフと密度グラフの両方で高性能なGNNモデルをトレーニングすることができる。
論文 参考訳(メタデータ) (2023-10-31T15:34:59Z) - FedGKD: Unleashing the Power of Collaboration in Federated Graph Neural
Networks [40.5420021584431]
グラフニューラルネットワーク(GNN)のフェデレーショントレーニングは、データ分離シナリオ下でグラフ関連のタスクを実行する能力によって、近年人気を集めている。
連合型GNNシステムにおけるグラフの不均一性問題は、引き続き課題を提起している。
本稿では,新しいクライアント側グラフデータセット蒸留法を利用した新しいGNNフレームワークであるFedGKDを提案する。
論文 参考訳(メタデータ) (2023-09-18T06:55:14Z) - Lumos: Heterogeneity-aware Federated Graph Learning over Decentralized
Devices [19.27111697495379]
グラフニューラルネットワーク(GNN)は、現実世界のネットワークアプリケーションやシステムに広くデプロイされている。
本稿では,教師付き学習と教師なし学習をサポートするLumosという,初の連合型GNNフレームワークを提案する。
クライアント毎に構築したツリーに基づいて,多目的学習を支援するために,分散型ツリーベースGNNトレーナーを提案する。
論文 参考訳(メタデータ) (2023-03-01T13:27:06Z) - FedEgo: Privacy-preserving Personalized Federated Graph Learning with
Ego-graphs [22.649780281947837]
いくつかの実践的なシナリオでは、グラフデータは複数の分散パーティに別々に格納されます。
上記の課題に対処するために,egoグラフに基づくフェデレーショングラフ学習フレームワークであるFedEgoを提案する。
論文 参考訳(メタデータ) (2022-08-29T15:47:36Z) - Graph Representation Learning via Contrasting Cluster Assignments [57.87743170674533]
GRCCAと呼ばれるクラスタ割り当てを対比して、教師なしグラフ表現モデルを提案する。
クラスタリングアルゴリズムとコントラスト学習を組み合わせることで、局所的およびグローバルな情報を合成的にうまく活用する動機付けがある。
GRCCAは、ほとんどのタスクにおいて強力な競争力を持っている。
論文 参考訳(メタデータ) (2021-12-15T07:28:58Z) - FedGL: Federated Graph Learning Framework with Global Self-Supervision [22.124339267195822]
FedGLは、データプライバシを保護しながら、高品質なグローバルグラフモデルを取得することができる。
グローバルなセルフスーパービジョンにより、各クライアントの情報がプライバシー保護の方法で流れて共有できます。
論文 参考訳(メタデータ) (2021-05-07T11:27:23Z) - Multi-Level Graph Convolutional Network with Automatic Graph Learning
for Hyperspectral Image Classification [63.56018768401328]
HSI分類のための自動グラフ学習法(MGCN-AGL)を用いたマルチレベルグラフ畳み込みネットワーク(GCN)を提案する。
空間的に隣接する領域における重要度を特徴付けるために注意機構を利用することで、最も関連性の高い情報を適応的に組み込んで意思決定を行うことができる。
MGCN-AGLは局所的に生成した表現表現に基づいて画像領域間の長距離依存性を符号化する。
論文 参考訳(メタデータ) (2020-09-19T09:26:20Z) - GCC: Graph Contrastive Coding for Graph Neural Network Pre-Training [62.73470368851127]
グラフ表現学習は現実世界の問題に対処する強力な手法として登場した。
自己教師付きグラフニューラルネットワーク事前トレーニングフレームワークであるGraph Contrastive Codingを設計する。
3つのグラフ学習タスクと10のグラフデータセットについて実験を行った。
論文 参考訳(メタデータ) (2020-06-17T16:18:35Z) - Tensor Graph Convolutional Networks for Multi-relational and Robust
Learning [74.05478502080658]
本稿では,テンソルで表されるグラフの集合に関連するデータから,スケーラブルな半教師付き学習(SSL)を実現するためのテンソルグラフ畳み込みネットワーク(TGCN)を提案する。
提案アーキテクチャは、標準的なGCNと比較して大幅に性能が向上し、最先端の敵攻撃に対処し、タンパク質間相互作用ネットワーク上でのSSL性能が著しく向上する。
論文 参考訳(メタデータ) (2020-03-15T02:33:21Z) - Graph Representation Learning via Graphical Mutual Information
Maximization [86.32278001019854]
本稿では,入力グラフとハイレベルな隠蔽表現との相関を測る新しい概念であるGMIを提案する。
我々は,グラフニューラルエンコーダの入力と出力の間でGMIを最大化することで訓練された教師なし学習モデルを開発する。
論文 参考訳(メタデータ) (2020-02-04T08:33:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。