論文の概要: Federated Contrastive Learning of Graph-Level Representations
- arxiv url: http://arxiv.org/abs/2411.12098v1
- Date: Mon, 18 Nov 2024 22:10:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-20 13:36:12.557571
- Title: Federated Contrastive Learning of Graph-Level Representations
- Title(参考訳): グラフレベル表現のFederated Contrastive Learning
- Authors: Xiang Li, Gagan Agrawal, Rajiv Ramnath, Ruoming Jin,
- Abstract要約: グラフレベルの表現(FCLG)の相互比較学習
本稿では,グラフレベル表現のFederated Contrastive Learning of Graph-level Representations(FCLG)と呼ぶ新しいフレームワークを提案する。
- 参考スコア(独自算出の注目度): 10.092560681589577
- License:
- Abstract: Graph-level representations (and clustering/classification based on these representations) are required in a variety of applications. Examples include identifying malicious network traffic, prediction of protein properties, and many others. Often, data has to stay in isolated local systems (i.e., cannot be centrally shared for analysis) due to a variety of considerations like privacy concerns, lack of trust between the parties, regulations, or simply because the data is too large to be shared sufficiently quickly. This points to the need for federated learning for graph-level representations, a topic that has not been explored much, especially in an unsupervised setting. Addressing this problem, this paper presents a new framework we refer to as Federated Contrastive Learning of Graph-level Representations (FCLG). As the name suggests, our approach builds on contrastive learning. However, what is unique is that we apply contrastive learning at two levels. The first application is for local unsupervised learning of graph representations. The second level is to address the challenge associated with data distribution variation (i.e. the ``Non-IID issue") when combining local models. Through extensive experiments on the downstream task of graph-level clustering, we demonstrate FCLG outperforms baselines (which apply existing federated methods on existing graph-level clustering methods) with significant margins.
- Abstract(参考訳): グラフレベルの表現(およびこれらの表現に基づくクラスタリング/分類)は、様々なアプリケーションで必要とされる。
例えば、悪意のあるネットワークトラフィックの特定、タンパク質特性の予測などだ。
多くの場合、データは独立したローカルシステム(つまり、分析のために中央的に共有できない)に留まる必要があり、プライバシーの懸念、当事者間の信頼の欠如、規制、あるいは単にデータが十分に素早く共有するには大きすぎるためである。
これは、特に教師なしの環境では、あまり研究されていないトピックであるグラフレベルの表現に対する連合学習の必要性を指摘する。
この問題に対処するため,本稿では,グラフレベル表現の相互比較学習(FCLG)と呼ぶ新しい枠組みを提案する。
名前が示すように、私たちのアプローチは対照的な学習に基づいています。
しかし、ユニークなのは、コントラスト学習を2つのレベルで適用することです。
第1の応用は、グラフ表現の局所的教師なし学習である。
第2のレベルは、ローカルモデルを組み合わせる際のデータ分散のバリエーション(すなわち ``Non-IID issue)に関連する課題に対処することである。
グラフレベルのクラスタリングのダウンストリームタスクに関する広範な実験を通じて、FCLGはベースライン(既存のグラフレベルのクラスタリング手法に既存のフェデレーション手法を適用した)よりも優れたマージンを持つことを示した。
関連論文リスト
- Deep Contrastive Graph Learning with Clustering-Oriented Guidance [61.103996105756394]
グラフ畳み込みネットワーク(GCN)は、グラフベースのクラスタリングを改善する上で大きな可能性を秘めている。
モデルはGCNを適用するために初期グラフを事前に推定する。
一般的なデータクラスタリングには,Deep Contrastive Graph Learning (DCGL)モデルが提案されている。
論文 参考訳(メタデータ) (2024-02-25T07:03:37Z) - Redundancy-Free Self-Supervised Relational Learning for Graph Clustering [13.176413653235311]
冗長フリーグラフクラスタリング(R$2$FGC)という,自己教師付き深層グラフクラスタリング手法を提案する。
オートエンコーダとグラフオートエンコーダに基づいて,グローバルビューとローカルビューの両方から属性レベルと構造レベルの関係情報を抽出する。
この実験は,R$2$FGCが最先端のベースラインよりも優れていることを示すために,広く使用されているベンチマークデータセット上で実施されている。
論文 参考訳(メタデータ) (2023-09-09T06:18:50Z) - Individual and Structural Graph Information Bottlenecks for
Out-of-Distribution Generalization [21.227825123510293]
I-GIB(Personal Graph Information Bottleneck)とS-GIB(Structure Graph Information Bottleneck)を提案する。
I-GIBは、入力グラフとその埋め込み間の相互情報を最小化することにより、無関係な情報を破棄する。
S-GIBは同時に急激な特徴を捨て、高次の視点から不変な特徴を学ぶ。
論文 参考訳(メタデータ) (2023-06-28T03:52:41Z) - You Only Transfer What You Share: Intersection-Induced Graph Transfer
Learning for Link Prediction [79.15394378571132]
従来見過ごされていた現象を調査し、多くの場合、元のグラフに対して密に連結された補グラフを見つけることができる。
より密度の高いグラフは、選択的で有意義な知識を伝達するための自然なブリッジを提供する元のグラフとノードを共有することができる。
この設定をグラフインターセクション誘導トランスファーラーニング(GITL)とみなし,eコマースや学術共同オーサシップ予測の実践的応用に動機づけられた。
論文 参考訳(メタデータ) (2023-02-27T22:56:06Z) - ACTIVE:Augmentation-Free Graph Contrastive Learning for Partial
Multi-View Clustering [52.491074276133325]
部分的マルチビュークラスタリングの問題を解決するために,拡張自由グラフコントラスト学習フレームワークを提案する。
提案手法は、インスタンスレベルのコントラスト学習と欠落データ推論をクラスタレベルに高め、個々の欠落データがクラスタリングに与える影響を効果的に軽減する。
論文 参考訳(メタデータ) (2022-03-01T02:32:25Z) - Graph Representation Learning via Contrasting Cluster Assignments [57.87743170674533]
GRCCAと呼ばれるクラスタ割り当てを対比して、教師なしグラフ表現モデルを提案する。
クラスタリングアルゴリズムとコントラスト学習を組み合わせることで、局所的およびグローバルな情報を合成的にうまく活用する動機付けがある。
GRCCAは、ほとんどのタスクにおいて強力な競争力を持っている。
論文 参考訳(メタデータ) (2021-12-15T07:28:58Z) - Multi-Level Graph Contrastive Learning [38.022118893733804]
本稿では,グラフの空間ビューを対比することで,グラフデータの堅牢な表現を学習するためのマルチレベルグラフコントラスト学習(MLGCL)フレームワークを提案する。
元のグラフは1次近似構造であり、不確実性や誤りを含むが、符号化機能によって生成された$k$NNグラフは高次近接性を保持する。
MLGCLは、7つのデータセット上の既存の最先端グラフ表現学習法と比較して有望な結果が得られることを示す。
論文 参考訳(メタデータ) (2021-07-06T14:24:43Z) - Graph Classification by Mixture of Diverse Experts [67.33716357951235]
我々は,不均衡なグラフ分類に多様な専門家の混在を利用したフレームワークであるGraphDIVEを提案する。
GraphDIVEは、分割と並列の原則により、不均衡なグラフデータセットを複数のサブセットに分割するゲーティングネットワークを採用しています。
実世界の不均衡グラフデータセットに関する実験は、GraphDIVEの有効性を示している。
論文 参考訳(メタデータ) (2021-03-29T14:03:03Z) - Structured Graph Learning for Scalable Subspace Clustering: From
Single-view to Multi-view [28.779909990410978]
グラフベースのサブスペースクラスタリング手法は有望な性能を示した。
コストのかかる時間のオーバーヘッドに遭遇し、明示的なクラスタの探索に失敗し、見えないデータポイントに一般化することはできません。
上記の3つの課題を同時に解決しようとする,スケーラブルなグラフ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-02-16T03:46:11Z) - GraphFL: A Federated Learning Framework for Semi-Supervised Node
Classification on Graphs [48.13100386338979]
グラフ上の半教師付きノード分類のための最初のFLフレームワークであるGraphFLを提案する。
本稿では,グラフデータの非IID問題に対処する2つのGraphFL法を提案し,そのタスクを新しいラベルドメインで処理する。
代表グラフニューラルネットワークをGraphSSC法として採用し,複数のグラフデータセット上でGraphFLを評価する。
論文 参考訳(メタデータ) (2020-12-08T03:13:29Z) - Sub-graph Contrast for Scalable Self-Supervised Graph Representation
Learning [21.0019144298605]
既存のグラフニューラルネットワークは、計算量やメモリコストが限られているため、完全なグラフデータで供給される。
textscSubg-Conは、中央ノードとそのサンプルサブグラフ間の強い相関を利用して、地域構造情報をキャプチャすることで提案される。
既存のグラフ表現学習アプローチと比較して、textscSubg-Conは、より弱い監視要件、モデル学習のスケーラビリティ、並列化において、顕著なパフォーマンス上のアドバンテージを持っています。
論文 参考訳(メタデータ) (2020-09-22T01:58:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。