論文の概要: Blockchain Assisted Decentralized Federated Learning (BLADE-FL) with
Lazy Clients
- arxiv url: http://arxiv.org/abs/2012.02044v1
- Date: Wed, 2 Dec 2020 12:18:27 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-30 11:59:57.194644
- Title: Blockchain Assisted Decentralized Federated Learning (BLADE-FL) with
Lazy Clients
- Title(参考訳): 遅延クライアントによる分散型フェデレーション学習(blade-fl)を支援するブロックチェーン
- Authors: Jun Li, Yumeng Shao, Ming Ding, Chuan Ma, Kang Wei, Zhu Han and H.
Vincent Poor
- Abstract要約: フェデレートラーニング(FL)にブロックチェーンを統合する新しいフレームワークを提案する。
BLADE-FLは、プライバシー保護、改ざん抵抗、学習の効果的な協力の点で優れたパフォーマンスを持っている。
遅延クライアントは、他人のトレーニングされたモデルを盗聴し、不正行為を隠すために人工的なノイズを加える。
- 参考スコア(独自算出の注目度): 124.48732110742623
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning (FL), as a distributed machine learning approach, has
drawn a great amount of attention in recent years. FL shows an inherent
advantage in privacy preservation, since users' raw data are processed locally.
However, it relies on a centralized server to perform model aggregation.
Therefore, FL is vulnerable to server malfunctions and external attacks. In
this paper, we propose a novel framework by integrating blockchain into FL,
namely, blockchain assisted decentralized federated learning (BLADE-FL), to
enhance the security of FL. The proposed BLADE-FL has a good performance in
terms of privacy preservation, tamper resistance, and effective cooperation of
learning. However, it gives rise to a new problem of training deficiency,
caused by lazy clients who plagiarize others' trained models and add artificial
noises to conceal their cheating behaviors. To be specific, we first develop a
convergence bound of the loss function with the presence of lazy clients and
prove that it is convex with respect to the total number of generated blocks
$K$. Then, we solve the convex problem by optimizing $K$ to minimize the loss
function. Furthermore, we discover the relationship between the optimal $K$,
the number of lazy clients, and the power of artificial noises used by lazy
clients. We conduct extensive experiments to evaluate the performance of the
proposed framework using the MNIST and Fashion-MNIST datasets. Our analytical
results are shown to be consistent with the experimental results. In addition,
the derived optimal $K$ achieves the minimum value of loss function, and in
turn the optimal accuracy performance.
- Abstract(参考訳): 分散機械学習アプローチとしてのフェデレーション・ラーニング(FL)は近年,大きな注目を集めている。
ユーザーの生データはローカルに処理されるため、flはプライバシー保護に固有の利点を示している。
しかし、モデルアグリゲーションを実行するには集中型サーバに依存している。
そのため、FLはサーバーの故障や外部攻撃に弱い。
本稿では、FLのセキュリティを高めるために、ブロックチェーンをFL、すなわちブロックチェーン支援分散フェデレーションラーニング(BLADE-FL)に統合する新しいフレームワークを提案する。
提案するBLADE-FLは, プライバシー保護, 改ざん抵抗, 学習の効果的な連携の点で優れた性能を有する。
しかし、他人の訓練されたモデルを盗聴し、不正行為を隠すために人工的なノイズを加える遅延クライアントによって、トレーニング不足の新たな問題が発生する。
具体的には、まず遅延クライアントの存在下でロス関数の収束境界を開発し、生成したブロックの総数$k$に対して凸であることを証明します。
そして損失関数を最小化するために$K$を最適化することで凸問題を解く。
さらに,最適な$K$,遅延クライアント数,遅延クライアントが使用する人工雑音のパワーの関係を明らかにする。
MNISTデータセットとFashion-MNISTデータセットを用いて,提案フレームワークの性能評価を行う。
解析結果は実験結果と一致していることがわかった。
さらに、導出された最適値k$は損失関数の最小値を達成し、その最適精度性能を達成する。
関連論文リスト
- Communication Efficient ConFederated Learning: An Event-Triggered SAGA
Approach [67.27031215756121]
Federated Learning(FL)は、さまざまなデータソース上のローカルデータを収集することなく、モデルトレーニングをターゲットとする機械学習パラダイムである。
単一のサーバを使用するStandard FLは、限られた数のユーザしかサポートできないため、学習能力の低下につながる。
本研究では,多数のユーザに対応するために,emphConfederated Learning(CFL)と呼ばれるマルチサーバFLフレームワークを検討する。
論文 参考訳(メタデータ) (2024-02-28T03:27:10Z) - The Implications of Decentralization in Blockchained Federated Learning: Evaluating the Impact of Model Staleness and Inconsistencies [2.6391879803618115]
ブロックチェーンのような民主的な環境にフェデレートされた学習のオーケストレーションをアウトソーシングすることの実践的意義について検討する。
シミュレーションを用いて、よく知られたMNISTとCIFAR-10データセットに2つの異なるMLモデルを適用することにより、ブロックチェーンFL動作を評価する。
以上の結果から,モデルの不整合がモデルの精度に及ぼす影響(予測精度の最大35%低下)が示唆された。
論文 参考訳(メタデータ) (2023-10-11T13:18:23Z) - zkFL: Zero-Knowledge Proof-based Gradient Aggregation for Federated Learning [13.086807746204597]
フェデレートラーニング(FL)は、中央アグリゲータのオーケストレーションの下で、複数の分散クライアントが協力してモデルをトレーニングできる機械学習パラダイムである。
従来のFLは、クライアントのコホートを正直に形成する中心集合体の信頼前提に依存している。
我々は、ゼロ知識証明を利用して、トレーニングモデル集約プロセス中に悪意あるアグリゲータの問題に取り組むzkFLを紹介した。
論文 参考訳(メタデータ) (2023-10-04T03:24:33Z) - FLock: Defending Malicious Behaviors in Federated Learning with
Blockchain [3.0111384920731545]
Federated Learning(FL)は、複数のデータ所有者(クライアント)が協力して機械学習モデルをトレーニングできるようにする、有望な方法だ。
ブロックチェーン上に構築されたセキュアで信頼性の高い分散型FLシステムであるFLockを実現するために,分散台帳技術(DLT)を利用することを提案する。
論文 参考訳(メタデータ) (2022-11-05T06:14:44Z) - FedPerm: Private and Robust Federated Learning by Parameter Permutation [2.406359246841227]
Federated Learning(FL)は、相互に信頼できないクライアントが共通の機械学習モデルを共同でトレーニングできるようにする分散学習パラダイムである。
クライアントデータのプライバシはFLで最重要である。同時に、モデルが敵のクライアントからの攻撃から保護されなければならない。
我々は、データプライバシを増幅する新しいモデル内パラメータシャッフル技術と、クライアントのモデル更新の暗号化集約を可能にするPrivate Information Retrieval(PIR)ベースの技術を組み合わせることで、これらの問題に対処する新しいFLアルゴリズムであるFedPermを提案する。
論文 参考訳(メタデータ) (2022-08-16T19:40:28Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - Dynamic Attention-based Communication-Efficient Federated Learning [85.18941440826309]
フェデレートラーニング(FL)は、グローバル機械学習モデルをトレーニングするためのソリューションを提供する。
FLは、クライアントデータの分散が非IIDであるときに性能劣化に悩まされる。
本稿では,この劣化に対処するために,新しい適応トレーニングアルゴリズムであるtextttAdaFL$を提案する。
論文 参考訳(メタデータ) (2021-08-12T14:18:05Z) - Blockchain Assisted Decentralized Federated Learning (BLADE-FL):
Performance Analysis and Resource Allocation [119.19061102064497]
ブロックチェーンをFL、すなわちブロックチェーン支援分散学習(BLADE-FL)に統合することで、分散FLフレームワークを提案する。
提案されたBLADE-FLのラウンドでは、各クライアントはトレーニング済みモデルを他のクライアントにブロードキャストし、受信したモデルに基づいてブロックを生成し、次のラウンドのローカルトレーニングの前に生成されたブロックからモデルを集約します。
遅延クライアントがblade-flの学習性能に与える影響を調査し,最適なk,学習パラメータ,遅延クライアントの割合の関係を特徴付ける。
論文 参考訳(メタデータ) (2021-01-18T07:19:08Z) - Toward Understanding the Influence of Individual Clients in Federated
Learning [52.07734799278535]
フェデレーションラーニングにより、クライアントはプライベートデータを中央サーバーに送信することなく、グローバルモデルを共同でトレーニングできます。
em-Influenceという新しい概念を定義し、パラメータに対するこの影響を定量化し、このメトリクスを推定する効果的な効率的なモデルを提案しました。
論文 参考訳(メタデータ) (2020-12-20T14:34:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。