論文の概要: BEAS: Blockchain Enabled Asynchronous & Secure Federated Machine
Learning
- arxiv url: http://arxiv.org/abs/2202.02817v1
- Date: Sun, 6 Feb 2022 17:11:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-09 07:36:41.216003
- Title: BEAS: Blockchain Enabled Asynchronous & Secure Federated Machine
Learning
- Title(参考訳): BEAS: 非同期でセキュアなフェデレーション機械学習を可能にするブロックチェーン
- Authors: Arup Mondal, Harpreet Virk, Debayan Gupta
- Abstract要約: 我々は、N-party Federated Learningのための最初のブロックチェーンベースのフレームワークBEASを紹介する。
グラデーションプルーニングを使用したトレーニングデータの厳格なプライバシー保証を提供する。
異常検出プロトコルは、データ汚染攻撃のリスクを最小限に抑えるために使用される。
また、異種学習環境における早期収束を防止するための新しいプロトコルも定義する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated Learning (FL) enables multiple parties to distributively train a ML
model without revealing their private datasets. However, it assumes trust in
the centralized aggregator which stores and aggregates model updates. This
makes it prone to gradient tampering and privacy leakage by a malicious
aggregator. Malicious parties can also introduce backdoors into the joint model
by poisoning the training data or model gradients. To address these issues, we
present BEAS, the first blockchain-based framework for N-party FL that provides
strict privacy guarantees of training data using gradient pruning (showing
improved differential privacy compared to existing noise and clipping based
techniques). Anomaly detection protocols are used to minimize the risk of
data-poisoning attacks, along with gradient pruning that is further used to
limit the efficacy of model-poisoning attacks. We also define a novel protocol
to prevent premature convergence in heterogeneous learning environments. We
perform extensive experiments on multiple datasets with promising results: BEAS
successfully prevents privacy leakage from dataset reconstruction attacks, and
minimizes the efficacy of poisoning attacks. Moreover, it achieves an accuracy
similar to centralized frameworks, and its communication and computation
overheads scale linearly with the number of participants.
- Abstract(参考訳): フェデレーション学習(fl)は、複数のパーティがプライベートデータセットを公開することなく、分散的にmlモデルをトレーニングできるようにする。
しかし、モデル更新を格納し集約する集中集約器を信頼すると仮定する。
これにより、悪意のあるアグリゲータによる改ざんとプライバシーの漏洩が難しくなる。
悪意ある当事者は、トレーニングデータやモデル勾配を悪用することで、ジョイントモデルにバックドアを導入することもできる。
これらの問題に対処するため、BEASはN-party FLのための最初のブロックチェーンベースのフレームワークであり、グラデーションプルーニング(既存のノイズやクリップベースのテクニックと比較して、差分プライバシが改善されている)を使用したトレーニングデータの厳格なプライバシ保証を提供する。
異常検出プロトコルは、データポジショニング攻撃のリスクを最小化するために、さらにモデルポジショニング攻撃の有効性を制限するために使用されるグラデーションプルーニングとともに使用される。
また、異種学習環境における早期収束を防止するための新しいプロトコルも定義する。
BEASは、データセット再構築攻撃によるプライバシー漏洩の防止に成功し、毒性攻撃の有効性を最小化します。
さらに、集中型フレームワークと同様の精度を実現し、その通信および計算オーバーヘッドは参加者数と線形にスケールする。
関連論文リスト
- Pseudo-Probability Unlearning: Towards Efficient and Privacy-Preserving Machine Unlearning [59.29849532966454]
本稿では,PseudoProbability Unlearning (PPU)を提案する。
提案手法は,最先端の手法に比べて20%以上の誤りを忘れる改善を実現している。
論文 参考訳(メタデータ) (2024-11-04T21:27:06Z) - RFLPA: A Robust Federated Learning Framework against Poisoning Attacks with Secure Aggregation [2.2667044928324747]
フェデレートラーニング(FL)は、複数のデバイスがデータを共有せずに協調的にモデルをトレーニングすることを可能にする。
その利点にもかかわらず、FLはプライバシーの漏洩や中毒攻撃に弱い。
本稿では,SecAggプロトコルに基づくRFLPAに対する堅牢なフェデレート学習フレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-24T03:31:10Z) - Privacy-Preserving Distributed Learning for Residential Short-Term Load
Forecasting [11.185176107646956]
電力システムの負荷データは、住宅ユーザの日常のルーチンを不注意に明らかにし、彼らの財産のセキュリティにリスクを及ぼす可能性がある。
我々はマルコフスイッチ方式の分散学習フレームワークを導入し、その収束は厳密な理論的解析によって実証される。
実世界の電力系統負荷データを用いたケーススタディにより,提案アルゴリズムの有効性を検証した。
論文 参考訳(メタデータ) (2024-02-02T16:39:08Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - Client-specific Property Inference against Secure Aggregation in
Federated Learning [52.8564467292226]
フェデレートラーニングは、さまざまな参加者の間で共通のモデルを協調的に訓練するための、広く使われているパラダイムとなっている。
多くの攻撃は、メンバーシップ、資産、または参加者データの完全な再構築のような機密情報を推測することは依然として可能であることを示した。
単純な線形モデルでは、集約されたモデル更新からクライアント固有のプロパティを効果的にキャプチャできることが示される。
論文 参考訳(メタデータ) (2023-03-07T14:11:01Z) - FedCC: Robust Federated Learning against Model Poisoning Attacks [0.0]
フェデレートラーニング(Federated Learning)は、プライバシの問題に対処するために設計された分散フレームワークである。
新たなアタックサーフェスを導入しており、データは独立に、そしてIdentically Distributedである場合、特に困難である。
我々は,モデル中毒に対する簡易かつ効果的な新しい防御アルゴリズムであるFedCCを提案する。
論文 参考訳(メタデータ) (2022-12-05T01:52:32Z) - Over-the-Air Federated Learning with Privacy Protection via Correlated
Additive Perturbations [57.20885629270732]
我々は、複数のユーザ/エージェントからエッジサーバへの勾配更新をOtA(Over-the-Air)で送信することで、無線フェデレーション学習のプライバシー面を考察する。
従来の摂動に基づく手法は、トレーニングの精度を犠牲にしてプライバシー保護を提供する。
本研究では,エッジサーバにおけるプライバシリークの最小化とモデル精度の低下を目標とする。
論文 参考訳(メタデータ) (2022-10-05T13:13:35Z) - Do Gradient Inversion Attacks Make Federated Learning Unsafe? [70.0231254112197]
フェデレートラーニング(FL)は、生データを共有することなく、AIモデルの協調トレーニングを可能にする。
モデル勾配からのディープニューラルネットワークの反転に関する最近の研究は、トレーニングデータの漏洩を防止するためのFLの安全性に関する懸念を提起した。
本研究では,本論文で提示されたこれらの攻撃が実際のFLユースケースでは実行不可能であることを示し,新たなベースライン攻撃を提供する。
論文 参考訳(メタデータ) (2022-02-14T18:33:12Z) - Blockchain Assisted Decentralized Federated Learning (BLADE-FL):
Performance Analysis and Resource Allocation [119.19061102064497]
ブロックチェーンをFL、すなわちブロックチェーン支援分散学習(BLADE-FL)に統合することで、分散FLフレームワークを提案する。
提案されたBLADE-FLのラウンドでは、各クライアントはトレーニング済みモデルを他のクライアントにブロードキャストし、受信したモデルに基づいてブロックを生成し、次のラウンドのローカルトレーニングの前に生成されたブロックからモデルを集約します。
遅延クライアントがblade-flの学習性能に与える影響を調査し,最適なk,学習パラメータ,遅延クライアントの割合の関係を特徴付ける。
論文 参考訳(メタデータ) (2021-01-18T07:19:08Z) - Compression Boosts Differentially Private Federated Learning [0.7742297876120562]
フェデレートされた学習により、分散エンティティは、自身のデータを共有することなく、共通のモデルを協調的にトレーニングできる。
悪意のあるエンティティが、捕獲された勾配から参加者のトレーニングデータに関するプライベート情報を学ぶことができるような、さまざまな推論や再構築攻撃に対して脆弱なままである。
本稿では,2つのデータセットを用いて,従来の非私的フェデレート学習方式と比較して,通信コストを最大95%削減できることを示す。
論文 参考訳(メタデータ) (2020-11-10T13:11:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。