論文の概要: Recursive Euclidean Distance Based Robust Aggregation Technique For
Federated Learning
- arxiv url: http://arxiv.org/abs/2303.11337v1
- Date: Mon, 20 Mar 2023 06:48:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-22 17:53:04.078943
- Title: Recursive Euclidean Distance Based Robust Aggregation Technique For
Federated Learning
- Title(参考訳): 帰納的ユークリッド距離に基づくフェデレーション学習のためのロバスト集約手法
- Authors: Charuka Herath, Yogachandran Rahulamathavan, Xiaolan Liu
- Abstract要約: フェデレーション学習は、機械学習におけるデータ可用性とプライバシの課題に対するソリューションである。
悪意のあるユーザは、ローカルモデルを悪意のあるデータでトレーニングすることで、協調学習プロセスを妨害することを目指している。
ユークリッド距離計算に基づく新しいロバストアグリゲーション手法を提案する。
- 参考スコア(独自算出の注目度): 4.848016645393023
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning has gained popularity as a solution to data availability
and privacy challenges in machine learning. However, the aggregation process of
local model updates to obtain a global model in federated learning is
susceptible to malicious attacks, such as backdoor poisoning, label-flipping,
and membership inference. Malicious users aim to sabotage the collaborative
learning process by training the local model with malicious data. In this
paper, we propose a novel robust aggregation approach based on recursive
Euclidean distance calculation. Our approach measures the distance of the local
models from the previous global model and assigns weights accordingly. Local
models far away from the global model are assigned smaller weights to minimize
the data poisoning effect during aggregation. Our experiments demonstrate that
the proposed algorithm outperforms state-of-the-art algorithms by at least
$5\%$ in accuracy while reducing time complexity by less than $55\%$. Our
contribution is significant as it addresses the critical issue of malicious
attacks in federated learning while improving the accuracy of the global model.
- Abstract(参考訳): フェデレーション学習は、機械学習におけるデータ可用性とプライバシの課題に対するソリューションとして人気を集めている。
しかし,フェデレート学習におけるグローバルモデル獲得のための局所モデル更新の集約プロセスは,バックドア中毒,ラベルフリップ,会員推定などの悪意ある攻撃の影響を受けやすい。
悪意のあるユーザは、ローカルモデルを悪意のあるデータでトレーニングすることで、協調学習プロセスを妨害することを目指している。
本稿では,再帰的ユークリッド距離計算に基づく新しいロバストアグリゲーション手法を提案する。
提案手法は,従来のグローバルモデルから局所モデルの距離を測定し,それに応じて重みを割り当てる。
グローバルモデルから遠く離れたローカルモデルは、集約中のデータ中毒効果を最小限に抑えるためにより小さな重みを割り当てられる。
実験により,提案アルゴリズムが最先端アルゴリズムを少なくとも5-%$の精度で上回り,時間複雑性を5-5-%$未満に抑えることを実証した。
フェデレーション学習における悪意のある攻撃の重大な問題に対処すると同時に,グローバルモデルの正確性も向上している。
関連論文リスト
- Vanishing Variance Problem in Fully Decentralized Neural-Network Systems [0.8212195887472242]
フェデレートラーニングとゴシップラーニングは、データプライバシの懸念を軽減するために考案された方法論だ。
本研究では,分散補正モデル平均化アルゴリズムを提案する。
シミュレーションの結果,Gossip学習は,フェデレート学習に匹敵する収束効率を実現することができることがわかった。
論文 参考訳(メタデータ) (2024-04-06T12:49:20Z) - Federated Learning with Projected Trajectory Regularization [65.6266768678291]
フェデレーション学習は、ローカルデータを共有せずに、分散クライアントから機械学習モデルの共同トレーニングを可能にする。
連合学習における重要な課題の1つは、クライアントにまたがる識別できない分散データを扱うことである。
本稿では,データ問題に対処するための予測軌道正則化(FedPTR)を備えた新しいフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-22T02:12:08Z) - BRFL: A Blockchain-based Byzantine-Robust Federated Learning Model [8.19957400564017]
分散ノードにデータを格納し、モデルパラメータのみを共有するフェデレーション学習は、この問題に対処するために大きな注目を集めている。
悪質なローカルモデルが集約中のグローバルモデルのパフォーマンスを損なうという、ビザンティン攻撃問題(英語版)によるフェデレートラーニング(英語版)において、課題が生じる。
本稿では、フェデレートラーニングとブロックチェーン技術を組み合わせたByzantine-Robust Federated Learning(BRLF)モデルの統合を提案する。
論文 参考訳(メタデータ) (2023-10-20T10:21:50Z) - Towards Understanding and Mitigating Dimensional Collapse in Heterogeneous Federated Learning [112.69497636932955]
フェデレートラーニングは、プライバシを考慮したデータ共有を必要とせずに、さまざまなクライアントでモデルをトレーニングすることを目的としている。
本研究では,データの不均一性がグローバル集約モデルの表現に与える影響について検討する。
フェデレーション学習における次元的崩壊を効果的に緩和する新しい手法である sc FedDecorr を提案する。
論文 参考訳(メタデータ) (2022-10-01T09:04:17Z) - SphereFed: Hyperspherical Federated Learning [22.81101040608304]
主な課題は、複数のクライアントにまたがる非i.i.d.データの処理である。
非i.d.問題に対処するために,超球面フェデレートラーニング(SphereFed)フレームワークを導入する。
ローカルデータに直接アクセスすることなく, キャリブレーションの解を効率的に, 分散的に計算できることを示す。
論文 参考訳(メタデータ) (2022-07-19T17:13:06Z) - Global Update Guided Federated Learning [11.731231528534035]
フェデレーション学習は、データの代わりにモデルを交換することで、データのプライバシとセキュリティを保護する。
本稿では,局所目的関数にモデルコサイン損失を導入したグローバル更新誘導型フェデレーションラーニング(FedGG)を提案する。
数値シミュレーションにより、FedGGはモデル収束精度と速度を著しく改善していることが示された。
論文 参考訳(メタデータ) (2022-04-08T08:36:26Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - A Personalized Federated Learning Algorithm: an Application in Anomaly
Detection [0.6700873164609007]
フェデレートラーニング(FL)は、データプライバシと送信問題を克服する有望な方法として最近登場した。
FLでは、異なるデバイスやセンサーから収集されたデータセットを使用して、各学習を集中型モデル(サーバ)と共有するローカルモデル(クライアント)をトレーニングする。
本稿では,PC-FedAvg(Personalized FedAvg, PC-FedAvg)を提案する。
論文 参考訳(メタデータ) (2021-11-04T04:57:11Z) - Clustered Federated Learning via Generalized Total Variation
Minimization [83.26141667853057]
本研究では,分散ネットワーク構造を持つローカルデータセットの局所的(あるいはパーソナライズされた)モデルを学習するための最適化手法について検討する。
我々の主要な概念的貢献は、総変動最小化(GTV)としてフェデレーション学習を定式化することである。
私たちのアルゴリズムの主な貢献は、完全に分散化されたフェデレーション学習アルゴリズムです。
論文 参考訳(メタデータ) (2021-05-26T18:07:19Z) - A Bayesian Federated Learning Framework with Online Laplace
Approximation [144.7345013348257]
フェデレートラーニングは、複数のクライアントが協力してグローバルに共有されたモデルを学ぶことを可能にする。
クライアント側とサーバ側の両方の後方部を近似するために,オンラインラプラス近似を用いた新しいFLフレームワークを提案する。
提案手法の利点を実証し,いくつかのベンチマークで最新の結果を得た。
論文 参考訳(メタデータ) (2021-02-03T08:36:58Z) - Think Locally, Act Globally: Federated Learning with Local and Global
Representations [92.68484710504666]
フェデレートラーニング(Federated Learning)とは、複数のデバイスに分散したプライベートデータ上でモデルをトレーニングする手法である。
本稿では,各デバイス上でコンパクトな局所表現を共同で学習する新しいフェデレーション学習アルゴリズムを提案する。
また、プライバシが鍵となる実世界のモバイルデータから、パーソナライズされた気分予測のタスクを評価する。
論文 参考訳(メタデータ) (2020-01-06T12:40:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。