論文の概要: FedGCN: Convergence-Communication Tradeoffs in Federated Training of
Graph Convolutional Networks
- arxiv url: http://arxiv.org/abs/2201.12433v7
- Date: Mon, 18 Dec 2023 05:12:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-21 03:51:51.690121
- Title: FedGCN: Convergence-Communication Tradeoffs in Federated Training of
Graph Convolutional Networks
- Title(参考訳): FedGCN:グラフ畳み込みネットワークのフェデレーショントレーニングにおける収束通信トレードオフ
- Authors: Yuhang Yao, Weizhao Jin, Srivatsan Ravi, Carlee Joe-Wong
- Abstract要約: 我々はフェデレートグラフ畳み込みネットワーク(FedGCN)アルゴリズムを導入し、フェデレーション学習を用いてGCNモデルを訓練し、半教師付きノード分類を行う。
各トレーニングラウンドでクライアント間の余分な通信を必要とする従来の方法と比較して、FedGCNクライアントはトレーニング前の1ステップで中央サーバとのみ通信する。
実験の結果,FedGCNアルゴリズムは平均収束率51.7%,通信速度100倍の精度でモデル精度が向上した。
- 参考スコア(独自算出の注目度): 14.824579000821272
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Methods for training models on graphs distributed across multiple clients
have recently grown in popularity, due to the size of these graphs as well as
regulations on keeping data where it is generated. However, the cross-client
edges naturally exist among clients. Thus, distributed methods for training a
model on a single graph incur either significant communication overhead between
clients or a loss of available information to the training. We introduce the
Federated Graph Convolutional Network (FedGCN) algorithm, which uses federated
learning to train GCN models for semi-supervised node classification with fast
convergence and little communication. Compared to prior methods that require
extra communication among clients at each training round, FedGCN clients only
communicate with the central server in one pre-training step, greatly reducing
communication costs and allowing the use of homomorphic encryption to further
enhance privacy. We theoretically analyze the tradeoff between FedGCN's
convergence rate and communication cost under different data distributions.
Experimental results show that our FedGCN algorithm achieves better model
accuracy with 51.7% faster convergence on average and at least 100X less
communication compared to prior work.
- Abstract(参考訳): 複数のクライアントに分散したグラフのモデルをトレーニングするための方法は、最近人気が高まっている。
しかし、クライアント間のエッジはクライアント間で自然に存在する。
したがって、単一のグラフ上でモデルをトレーニングするための分散手法は、クライアント間の重要な通信オーバーヘッドか、トレーニングに利用可能な情報の損失を伴います。
我々は、フェデレートグラフ畳み込みネットワーク(FedGCN)アルゴリズムを導入し、フェデレーション学習を用いて、高速収束と通信の少ない半教師付きノード分類のためのGCNモデルを訓練する。
各トレーニングラウンドでクライアント間の余分な通信を必要とする従来の方法と比較して、FedGCNクライアントはトレーニング前のステップで中央サーバとのみ通信し、通信コストを大幅に削減し、同型暗号化を使用することでプライバシーをさらに強化する。
我々は,FedGCNの収束率とデータ分散の異なる通信コストのトレードオフを理論的に解析する。
実験の結果,fedgcnアルゴリズムは,平均51.7%の収束速度と,少なくとも100倍の通信速度で,モデル精度が向上した。
関連論文リスト
- Distributed Training of Large Graph Neural Networks with Variable Communication Rates [71.7293735221656]
大きなグラフ上でグラフニューラルネットワーク(GNN)をトレーニングすることは、大きなメモリとコンピューティング要件のために、ユニークな課題を提示する。
グラフを複数のマシンに分割する分散GNNトレーニングは、大きなグラフ上でGNNをトレーニングするための一般的なアプローチである。
本稿では,学習モデルの精度を損なうことなく,分散GNNトレーニングにおける通信量を削減するための可変圧縮方式を提案する。
論文 参考訳(メタデータ) (2024-06-25T14:57:38Z) - Achieving Linear Speedup in Asynchronous Federated Learning with
Heterogeneous Clients [30.135431295658343]
フェデレートラーニング(FL)は、異なるクライアントにローカルに保存されているデータを交換したり転送したりすることなく、共通のグローバルモデルを学ぶことを目的としている。
本稿では,DeFedAvgという,効率的な連邦学習(AFL)フレームワークを提案する。
DeFedAvgは、望まれる線形スピードアップ特性を達成する最初のAFLアルゴリズムであり、高いスケーラビリティを示している。
論文 参考訳(メタデータ) (2024-02-17T05:22:46Z) - Distributed Learning over Networks with Graph-Attention-Based
Personalization [49.90052709285814]
分散ディープラーニングのためのグラフベースパーソナライズアルゴリズム(GATTA)を提案する。
特に、各エージェントのパーソナライズされたモデルは、グローバルな部分とノード固有の部分で構成される。
グラフ内の各エージェントを1つのノードとして扱うことにより、ノード固有のパラメータを特徴として扱うことにより、グラフアテンション機構の利点を継承することができる。
論文 参考訳(メタデータ) (2023-05-22T13:48:30Z) - SalientGrads: Sparse Models for Communication Efficient and Data Aware
Distributed Federated Training [1.0413504599164103]
フェデレートラーニング(FL)は、データを収集せずにプライバシを保ちながら、クライアントサイトの分散データを活用したモデルのトレーニングを可能にする。
FLの重要な課題の1つは、リソース制限されたエッジクライアントノードにおける計算の制限と通信帯域の低さである。
本稿では,学習前にデータ認識サブネットワークを選択することで,スパーストレーニングのプロセスを簡単にするSalient Gradsを提案する。
論文 参考訳(メタデータ) (2023-04-15T06:46:37Z) - Personalizing Federated Learning with Over-the-Air Computations [84.8089761800994]
フェデレートされたエッジ学習は、プライバシー保護の方法で無線ネットワークのエッジにインテリジェンスをデプロイする、有望な技術である。
このような設定の下で、複数のクライアントは、エッジサーバの調整の下でグローバルジェネリックモデルを協調的にトレーニングする。
本稿では,アナログオーバー・ザ・エア計算を用いて通信ボトルネックに対処する分散トレーニングパラダイムを提案する。
論文 参考訳(メタデータ) (2023-02-24T08:41:19Z) - ResFed: Communication Efficient Federated Learning by Transmitting Deep
Compressed Residuals [24.13593410107805]
フェデレートラーニングは、学習したローカルモデルパラメータを共有することで、大規模分散クライアント間の協調トレーニングを可能にする。
モデルパラメータではなく残差を訓練用ネットワークに送信する残差ベースフェデレーション学習フレームワーク(ResFed)を導入する。
共通予測ルールを用いることで、ローカルモデルとグローバルモデルの両方が、常にクライアントとサーバで完全に回復可能である。
論文 参考訳(メタデータ) (2022-12-11T20:34:52Z) - FedDM: Iterative Distribution Matching for Communication-Efficient
Federated Learning [87.08902493524556]
フェデレートラーニング(FL)は近年、学術や産業から注目を集めている。
我々は,複数の局所的代理関数からグローバルなトレーニング目標を構築するためのFedDMを提案する。
そこで本研究では,各クライアントにデータ集合を構築し,元のデータから得られた損失景観を局所的にマッチングする。
論文 参考訳(メタデータ) (2022-07-20T04:55:18Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - CosSGD: Nonlinear Quantization for Communication-efficient Federated
Learning [62.65937719264881]
フェデレーション学習は、これらのクライアントのローカルデータを中央サーバに転送することなく、クライアント間での学習を促進する。
圧縮勾配降下のための非線形量子化を提案し、フェデレーションラーニングで容易に利用することができる。
本システムは,訓練過程の収束と精度を維持しつつ,通信コストを最大3桁まで削減する。
論文 参考訳(メタデータ) (2020-12-15T12:20:28Z) - CatFedAvg: Optimising Communication-efficiency and Classification
Accuracy in Federated Learning [2.2172881631608456]
そこで我々はCatFedAvgというフェデレート学習アルゴリズムを新たに導入した。
コミュニケーション効率は向上するが、NIST戦略のカテゴリカバレッジを用いて学習の質を向上させる。
実験の結果,FedAvgよりもネットワーク転送率が70%低いMデータセットでは,10%の絶対点精度が向上していることがわかった。
論文 参考訳(メタデータ) (2020-11-14T06:52:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。