論文の概要: Blockchain-based Optimized Client Selection and Privacy Preserved
Framework for Federated Learning
- arxiv url: http://arxiv.org/abs/2308.04442v1
- Date: Tue, 25 Jul 2023 01:35:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-14 00:29:26.675526
- Title: Blockchain-based Optimized Client Selection and Privacy Preserved
Framework for Federated Learning
- Title(参考訳): フェデレーション学習のためのブロックチェーンベースの最適化クライアント選択とプライバシ保護フレームワーク
- Authors: Attia Qammar, Abdenacer Naouri, Jianguo Ding, Huansheng Ning
- Abstract要約: フェデレートラーニング(Federated Learning)は、大規模ニューラルネットワークモデルをトレーニングする分散メカニズムで、複数のクライアントが参加する。
この機能により、フェデレーション学習はデータのプライバシー問題に対するセキュアなソリューションとみなされる。
ブロックチェーンベースの最適化クライアント選択とプライバシ保護フレームワークを提案しました。
- 参考スコア(独自算出の注目度): 2.4201849657206496
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning is a distributed mechanism that trained large-scale neural
network models with the participation of multiple clients and data remains on
their devices, only sharing the local model updates. With this feature,
federated learning is considered a secure solution for data privacy issues.
However, the typical FL structure relies on the client-server, which leads to
the single-point-of-failure (SPoF) attack, and the random selection of clients
for model training compromised the model accuracy. Furthermore, adversaries try
for inference attacks i.e., attack on privacy leads to gradient leakage
attacks. We proposed the blockchain-based optimized client selection and
privacy-preserved framework in this context. We designed the three kinds of
smart contracts such as 1) registration of clients 2) forward bidding to select
optimized clients for FL model training 3) payment settlement and reward smart
contracts. Moreover, fully homomorphic encryption with Cheon, Kim, Kim, and
Song (CKKS) method is implemented before transmitting the local model updates
to the server. Finally, we evaluated our proposed method on the benchmark
dataset and compared it with state-of-the-art studies. Consequently, we
achieved a higher accuracy rate and privacy-preserved FL framework with
decentralized nature.
- Abstract(参考訳): フェデレートラーニング(Federated Learning)は、大規模なニューラルネットワークモデルをトレーニングした分散メカニズムで、複数のクライアントとデータがデバイスに残っており、ローカルモデルのアップデートを共有するのみである。
この機能により、フェデレーション学習はデータのプライバシー問題に対するセキュアなソリューションとみなされる。
しかし、典型的なFL構造は、単一障害点攻撃(SPoF)につながるクライアントサーバに依存しており、モデルトレーニングのためのクライアントのランダムな選択はモデルの精度を損なう。
さらに、敵は推論攻撃を試み、すなわちプライバシーに対する攻撃は勾配リーク攻撃につながる。
この文脈でブロックチェーンベースの最適化クライアント選択とプライバシ保護フレームワークを提案しました。
私たちは3種類のスマートコントラクトを設計しました。
1)クライアントの登録
2)flモデルトレーニングに最適化したクライアントの選択への事前入札
3)支払いの決済とスマートコントラクトの報酬。
さらに,ローカルモデル更新をサーバに送信する前に,Cheon,Kim,Kim,Song(CKKS)メソッドによる完全同型暗号を実装した。
最後に,提案手法をベンチマークデータセット上で評価し,最先端の研究と比較した。
その結果、分散した性質を持つ高い精度とプライバシー保護のFLフレームワークを実現した。
関連論文リスト
- Protection against Source Inference Attacks in Federated Learning using Unary Encoding and Shuffling [6.260747047974035]
Federated Learning (FL)は、クライアントがローカルデータを開示することなく、ジョイントモデルをトレーニングすることを可能にする。
近年, ソース推論攻撃 (SIA) が提案され, クライアントが特定のデータレコードを所有しているかを正確に特定しようとする。
本稿では, 信頼性の高いシャフラーを用いて, 関節モデルの精度を損なうことなく, SIA に対する防御策を提案する。
論文 参考訳(メタデータ) (2024-11-10T13:17:11Z) - Addressing Membership Inference Attack in Federated Learning with Model Compression [8.842172558292027]
機械学習のプライバシ保護ソリューションとしてフェデレートラーニング(FL)が提案されている。
最近の研究によると、FLはメンバーシップ推論攻撃によってプライベートクライアントデータを漏洩させることができる。
これらの攻撃の有効性は、クライアントのデータセットのサイズとモデルの複雑さと負の相関関係があることを示します。
論文 参考訳(メタデータ) (2023-11-29T15:54:15Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - Mitigating Cross-client GANs-based Attack in Federated Learning [78.06700142712353]
マルチ分散マルチメディアクライアントは、グローバル共有モデルの共同学習のために、フェデレートラーニング(FL)を利用することができる。
FLは、GAN(C-GANs)をベースとしたクロスクライアント・ジェネレーティブ・敵ネットワーク(GANs)攻撃に苦しむ。
C-GAN攻撃に抵抗する現在のFLスキームを改善するためのFed-EDKD手法を提案する。
論文 参考訳(メタデータ) (2023-07-25T08:15:55Z) - A New Implementation of Federated Learning for Privacy and Security
Enhancement [27.612480082254486]
フェデレーテッド・ラーニング(FL)は、新しい機械学習・セッティングとして登場した。
ローカルデータを共有する必要はなく、プライバシを十分に保護することができる。
本稿では,ビザンチン攻撃に対するモデル更新に基づくフェデレーション平均化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-08-03T03:13:19Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - PRECAD: Privacy-Preserving and Robust Federated Learning via
Crypto-Aided Differential Privacy [14.678119872268198]
フェデレートラーニング(FL)は、複数の参加するクライアントがデータセットをローカルに保持し、モデル更新のみを交換することで、機械学習モデルを協調的にトレーニングすることを可能にする。
既存のFLプロトコルの設計は、データのプライバシやモデルの堅牢性を損なうような攻撃に対して脆弱であることが示されている。
我々はPreCADと呼ばれるフレームワークを開発し、同時に差分プライバシー(DP)を実現し、暗号の助けを借りてモデル中毒攻撃に対する堅牢性を高める。
論文 参考訳(メタデータ) (2021-10-22T04:08:42Z) - Understanding Clipping for Federated Learning: Convergence and
Client-Level Differential Privacy [67.4471689755097]
本稿では, 切断したFedAvgが, 実質的なデータ均一性でも驚くほど良好に動作できることを実証的に示す。
本稿では,差分プライベート(DP)FedAvgアルゴリズムの収束解析を行い,クリッピングバイアスとクライアント更新の分布との関係を明らかにする。
論文 参考訳(メタデータ) (2021-06-25T14:47:19Z) - Blockchain Assisted Decentralized Federated Learning (BLADE-FL):
Performance Analysis and Resource Allocation [119.19061102064497]
ブロックチェーンをFL、すなわちブロックチェーン支援分散学習(BLADE-FL)に統合することで、分散FLフレームワークを提案する。
提案されたBLADE-FLのラウンドでは、各クライアントはトレーニング済みモデルを他のクライアントにブロードキャストし、受信したモデルに基づいてブロックを生成し、次のラウンドのローカルトレーニングの前に生成されたブロックからモデルを集約します。
遅延クライアントがblade-flの学習性能に与える影響を調査し,最適なk,学習パラメータ,遅延クライアントの割合の関係を特徴付ける。
論文 参考訳(メタデータ) (2021-01-18T07:19:08Z) - Blockchain Assisted Decentralized Federated Learning (BLADE-FL) with
Lazy Clients [124.48732110742623]
フェデレートラーニング(FL)にブロックチェーンを統合する新しいフレームワークを提案する。
BLADE-FLは、プライバシー保護、改ざん抵抗、学習の効果的な協力の点で優れたパフォーマンスを持っている。
遅延クライアントは、他人のトレーニングされたモデルを盗聴し、不正行為を隠すために人工的なノイズを加える。
論文 参考訳(メタデータ) (2020-12-02T12:18:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。