論文の概要: FedGraph: an Aggregation Method from Graph Perspective
- arxiv url: http://arxiv.org/abs/2210.02733v1
- Date: Thu, 6 Oct 2022 07:48:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 16:44:27.722458
- Title: FedGraph: an Aggregation Method from Graph Perspective
- Title(参考訳): FedGraph: グラフの観点からの集約手法
- Authors: Zhifang Deng, Xiaohong Huang, Dandan Li, Xueguang Yuan
- Abstract要約: フェデレートラーニング(FL)は、各クライアントのプライバシを保ちながら、モデルを協調的にトレーニングする効果的なソリューションとなっている。
FedAvgは標準アグリゲーションアルゴリズムであり、各クライアントのデータセットサイズの割合をアグリゲーションウェイトとする。
本稿では,局所モデルのトレーニング条件に応じてアグリゲーション重みを適応的に調整できるFedGraphを提案する。
- 参考スコア(独自算出の注目度): 3.1236343261481165
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the increasingly strengthened data privacy act and the difficult data
centralization, Federated Learning (FL) has become an effective solution to
collaboratively train the model while preserving each client's privacy. FedAvg
is a standard aggregation algorithm that makes the proportion of dataset size
of each client as aggregation weight. However, it can't deal with
non-independent and identically distributed (non-i.i.d) data well because of
its fixed aggregation weights and the neglect of data distribution. In this
paper, we propose an aggregation strategy that can effectively deal with
non-i.i.d dataset, namely FedGraph, which can adjust the aggregation weights
adaptively according to the training condition of local models in whole
training process. The FedGraph takes three factors into account from coarse to
fine: the proportion of each local dataset size, the topology factor of model
graphs, and the model weights. We calculate the gravitational force between
local models by transforming the local models into topology graphs. The
FedGraph can explore the internal correlation between local models better
through the weighted combination of the proportion each local dataset, topology
structure, and model weights. The proposed FedGraph has been applied to the
MICCAI Federated Tumor Segmentation Challenge 2021 (FeTS) datasets, and the
validation results show that our method surpasses the previous state-of-the-art
by 2.76 mean Dice Similarity Score. The source code will be available at
Github.
- Abstract(参考訳): ますます強化されたデータプライバシ法と難しいデータ集中化により、フェデレーション学習(fl)は、各クライアントのプライバシを維持しながらモデルを協調的にトレーニングするための効果的なソリューションとなっている。
FedAvgは標準集約アルゴリズムであり、各クライアントのデータセットサイズの割合を集約重みとする。
しかし、その固定集約重みとデータ分布の無視のため、非独立で同一の(非i.d)データを扱うことはできない。
本稿では,非i.i.dデータセット,すなわちfeedgraphを効果的に処理可能な集約戦略を提案し,学習プロセス全体における局所モデルのトレーニング条件に応じて,集約重みを適応的に調整する手法を提案する。
FedGraphは、各ローカルデータセットサイズの割合、モデルグラフのトポロジ係数、モデルウェイトという、粗いものから細かいものまで、3つの要素を考慮に入れている。
局所モデルからトポロジーグラフへの変換により局所モデル間の重力力を計算する。
FedGraphは、各ローカルデータセット、トポロジ構造、モデルウェイトを重み付けした組み合わせによって、ローカルモデル間の内部的相関性を改善することができる。
提案するfedgraphは,miccai federated tumor segmentation challenge 2021 (fets) データセットに適用され,本手法が従来の2.76 dice類似度スコアを上回った。
ソースコードはgithubで入手できる。
関連論文リスト
- FedGT: Federated Node Classification with Scalable Graph Transformer [27.50698154862779]
本稿では,スケーラブルな textbfFederated textbfGraph textbfTransformer (textbfFedGT) を提案する。
FedGTは、最適なトランスポートで整列したグローバルノードに基づいて、クライアントの類似性を計算する。
論文 参考訳(メタデータ) (2024-01-26T21:02:36Z) - Exploiting Label Skews in Federated Learning with Model Concatenation [39.38427550571378]
Federated Learning(FL)は、生データを交換することなく、さまざまなデータオーナでディープラーニングを実行するための、有望なソリューションとして登場した。
非IID型では、ラベルスキューは困難であり、画像分類やその他のタスクで一般的である。
我々は,これらの局所モデルをグローバルモデルの基礎として分解する,シンプルで効果的なアプローチであるFedConcatを提案する。
論文 参考訳(メタデータ) (2023-12-11T10:44:52Z) - FedDisco: Federated Learning with Discrepancy-Aware Collaboration [41.828780724903744]
離散性を考慮した協調学習(FedDisco)による新しいアグリゲーション手法を提案する。
当社のFedDiscoはいくつかの最先端の手法より優れており、多くの既存手法に簡単に組み込んでパフォーマンスをさらに向上させることができる。
論文 参考訳(メタデータ) (2023-05-30T17:20:51Z) - Distributed Learning over Networks with Graph-Attention-Based
Personalization [49.90052709285814]
分散ディープラーニングのためのグラフベースパーソナライズアルゴリズム(GATTA)を提案する。
特に、各エージェントのパーソナライズされたモデルは、グローバルな部分とノード固有の部分で構成される。
グラフ内の各エージェントを1つのノードとして扱うことにより、ノード固有のパラメータを特徴として扱うことにより、グラフアテンション機構の利点を継承することができる。
論文 参考訳(メタデータ) (2023-05-22T13:48:30Z) - Graph Learning Across Data Silos [12.343382413705394]
本稿では,スムーズなグラフ信号からグラフトポロジを推定する問題を考える。
データは分散クライアントにあり、プライバシー上の懸念などの要因により、ローカルクライアントを去ることは禁じられている。
本稿では,各ローカルクライアントに対してパーソナライズされたグラフと,全クライアントに対して単一のコンセンサスグラフを共同で学習する,自動重み付き多重グラフ学習モデルを提案する。
論文 参考訳(メタデータ) (2023-01-17T02:14:57Z) - Towards Understanding and Mitigating Dimensional Collapse in Heterogeneous Federated Learning [112.69497636932955]
フェデレートラーニングは、プライバシを考慮したデータ共有を必要とせずに、さまざまなクライアントでモデルをトレーニングすることを目的としている。
本研究では,データの不均一性がグローバル集約モデルの表現に与える影響について検討する。
フェデレーション学習における次元的崩壊を効果的に緩和する新しい手法である sc FedDecorr を提案する。
論文 参考訳(メタデータ) (2022-10-01T09:04:17Z) - Model Inversion Attacks against Graph Neural Networks [65.35955643325038]
グラフニューラルネットワーク(GNN)に対するモデル反転攻撃について検討する。
本稿では,プライベートトレーニンググラフデータを推測するためにGraphMIを提案する。
実験の結果,このような防御効果は十分ではないことが示され,プライバシー攻撃に対するより高度な防御が求められている。
論文 参考訳(メタデータ) (2022-09-16T09:13:43Z) - FedEgo: Privacy-preserving Personalized Federated Graph Learning with
Ego-graphs [22.649780281947837]
いくつかの実践的なシナリオでは、グラフデータは複数の分散パーティに別々に格納されます。
上記の課題に対処するために,egoグラフに基づくフェデレーショングラフ学習フレームワークであるFedEgoを提案する。
論文 参考訳(メタデータ) (2022-08-29T15:47:36Z) - Personalized Subgraph Federated Learning [56.52903162729729]
本稿では,新たなサブグラフFL問題,パーソナライズされたサブグラフFLを導入する。
本稿では,Federated Personalized sUBgraph Learning (FED-PUB)を提案する。
オーバーラップしないサブグラフとオーバーラップするサブグラフの両方を考慮して,FED-PUBのサブグラフFL性能を6つのデータセットで検証した。
論文 参考訳(メタデータ) (2022-06-21T09:02:53Z) - Tackling the Local Bias in Federated Graph Learning [48.887310972708036]
フェデレーショングラフ学習(FGL)では、グローバルグラフは異なるクライアントに分散し、各クライアントがサブグラフを保持する。
既存のFGL手法では、クロスクライアントエッジを効果的に活用できず、トレーニング中に構造情報が失われる。
集中型環境で訓練されたモデルと類似した局所モデルを作成するための新しいFGLフレームワークを提案する。
論文 参考訳(メタデータ) (2021-10-22T08:22:36Z) - Training Robust Graph Neural Networks with Topology Adaptive Edge
Dropping [116.26579152942162]
グラフニューラルネットワーク(GNN)は、グラフ構造情報を利用してネットワークデータから表現をモデル化する処理アーキテクチャである。
彼らの成功にもかかわらず、GNNは限られた訓練データから得られる準最適一般化性能に悩まされている。
本稿では、一般化性能を改善し、堅牢なGNNモデルを学習するためのトポロジ適応エッジドロップ法を提案する。
論文 参考訳(メタデータ) (2021-06-05T13:20:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。