論文の概要: FheFL: Fully Homomorphic Encryption Friendly Privacy-Preserving
Federated Learning with Byzantine Users
- arxiv url: http://arxiv.org/abs/2306.05112v1
- Date: Thu, 8 Jun 2023 11:20:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-09 14:46:29.928856
- Title: FheFL: Fully Homomorphic Encryption Friendly Privacy-Preserving
Federated Learning with Byzantine Users
- Title(参考訳): fhefl: 完全な均質な暗号化フレンドリーなプライバシー保護型連合学習とビザンチンユーザ
- Authors: Yogachandran Rahulamathavan, Charuka Herath, Xiaolan Liu,
Sangarapillai Lambotharan and Carsten Maple
- Abstract要約: フェデレートラーニング(FL)技術は、当初はデータのプライバシー問題を緩和するために開発された。
次世代のFLアーキテクチャでは、モデル更新をサーバから保護するための暗号化と匿名化技術が提案されている。
本稿では,FLに適したFHE方式を提案する。
- 参考スコア(独自算出の注目度): 13.924829298309415
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The federated learning (FL) technique was initially developed to mitigate
data privacy issues that can arise in the traditional machine learning
paradigm. While FL ensures that a user's data always remain with the user, the
gradients of the locally trained models must be communicated with the
centralized server to build the global model. This results in privacy leakage,
where the server can infer private information of the users' data from the
shared gradients. To mitigate this flaw, the next-generation FL architectures
proposed encryption and anonymization techniques to protect the model updates
from the server. However, this approach creates other challenges, such as a
malicious user might sabotage the global model by sharing false gradients.
Since the gradients are encrypted, the server is unable to identify and
eliminate rogue users which would protect the global model. Therefore, to
mitigate both attacks, this paper proposes a novel fully homomorphic encryption
(FHE) based scheme suitable for FL. We modify the one-to-one single-key
Cheon-Kim-Kim-Song (CKKS)-based FHE scheme into a distributed multi-key
additive homomorphic encryption scheme that supports model aggregation in FL.
We employ a novel aggregation scheme within the encrypted domain, utilizing
users' non-poisoning rates, to effectively address data poisoning attacks while
ensuring privacy is preserved by the proposed encryption scheme. Rigorous
security, privacy, convergence, and experimental analyses have been provided to
show that FheFL is novel, secure, and private, and achieves comparable accuracy
at reasonable computational cost.
- Abstract(参考訳): フェデレートラーニング(FL)技術は、当初、従来の機械学習パラダイムで起こりうるデータのプライバシ問題を緩和するために開発された。
FLはユーザのデータが常にユーザの手元にあることを保証しますが、ローカルにトレーニングされたモデルの勾配は、グローバルモデルを構築するために集中型サーバと通信する必要があります。
これによりプライバシリークが発生し、サーバは共有勾配からユーザのデータのプライベート情報を推測できる。
この欠陥を軽減するため、次世代flアーキテクチャは、モデル更新をサーバから保護するための暗号化と匿名化技術を提案した。
しかし、このアプローチは、悪意のあるユーザが誤った勾配を共有することでグローバルモデルを妨害するなど、他の課題を生み出します。
勾配は暗号化されているため、グローバルモデルを保護する悪質なユーザを特定し、排除することはできない。
そこで本稿では,両攻撃を緩和するために,flに適した新しい完全準同型暗号(fhe)方式を提案する。
我々は1対1のシングルキーCheon-Kim-Kim-Song(CKKS)ベースのFHEスキームを、FLのモデルアグリゲーションをサポートする分散マルチキー加法的同型暗号スキームに修正する。
我々は,暗号化ドメイン内に新たなアグリゲーションスキームを導入し,ユーザの非毒殺率を利用して,プライバシの確保を図りながら,データ中毒攻撃を効果的に対処する。
厳密なセキュリティ、プライバシ、収束、実験的分析は、FheFLが新規で、セキュアで、プライベートであり、合理的な計算コストで同等の精度を達成することを示すために提供されている。
関連論文リスト
- DMM: Distributed Matrix Mechanism for Differentially-Private Federated Learning using Packed Secret Sharing [51.336015600778396]
フェデレーテッド・ラーニング(FL)は最近、産業とアカデミックの両方で多くの注目を集めています。
FLでは、機械学習モデルは、複数のラウンドにまたがって委員会に配置されたさまざまなエンドユーザのデータを使用して訓練される。
このようなデータは、しばしばセンシティブであるため、FLの主な課題は、モデルの実用性を維持しながらプライバシを提供することである。
論文 参考訳(メタデータ) (2024-10-21T16:25:14Z) - PriRoAgg: Achieving Robust Model Aggregation with Minimum Privacy Leakage for Federated Learning [49.916365792036636]
フェデレートラーニング(FL)は、大規模分散ユーザデータを活用する可能性から、最近大きな勢いを増している。
送信されたモデル更新は、センシティブなユーザ情報をリークする可能性があり、ローカルなトレーニングプロセスの集中的な制御の欠如は、モデル更新に対する悪意のある操作の影響を受けやすいグローバルモデルを残します。
我々は、Lagrange符号化計算と分散ゼロ知識証明を利用した汎用フレームワークPriRoAggを開発し、集約されたプライバシを満たすとともに、幅広いロバストな集約アルゴリズムを実行する。
論文 参考訳(メタデータ) (2024-07-12T03:18:08Z) - Byzantine-Resilient Secure Aggregation for Federated Learning Without Privacy Compromises [4.242342898338019]
フェデレーテッド・ラーニング(FL)は大規模な機械学習において大きな可能性を秘めているが、プライバシとセキュリティの面で新たなリスクをもたらす。
我々は,ユーザデータをフェデレーターからプライベートに,他のユーザからプライベートに保ちながら,ビザンチンユーザに対してレジリエンスを提供するFLの新しいスキームであるBYITFLを提案する。
論文 参考訳(メタデータ) (2024-05-14T15:37:56Z) - SaFL: Sybil-aware Federated Learning with Application to Face
Recognition [13.914187113334222]
Federated Learning(FL)は、顧客間で共同学習を行う機械学習パラダイムである。
マイナス面として、FLは研究を開始したばかりのセキュリティとプライバシに関する懸念を提起している。
本稿では,SAFL と呼ばれる FL の毒殺攻撃に対する新しい防御法を提案する。
論文 参考訳(メタデータ) (2023-11-07T21:06:06Z) - Privacy-Preserving Federated Learning via System Immersion and Random
Matrix Encryption [4.258856853258348]
フェデレーション学習(FL)は、クライアントが中央集権的な(潜在的に敵対的な)サーバとデータを共有するのではなく、デバイス上でAIモデルをトレーニングする、コラボレーティブな分散学習のためのプライバシソリューションとして登場した。
本稿では,制御理論からの行列暗号とシステム浸漬ツールの相乗効果に基づいて,プライバシ保護フェデレーションラーニング(PPFL)フレームワークを提案する。
提案アルゴリズムは,クライアントのデータに関する情報を公開せずに,標準FLと同等の精度と収束率を無視できるコストで提供することを示す。
論文 参考訳(メタデータ) (2022-04-05T21:28:59Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - Do Gradient Inversion Attacks Make Federated Learning Unsafe? [70.0231254112197]
フェデレートラーニング(FL)は、生データを共有することなく、AIモデルの協調トレーニングを可能にする。
モデル勾配からのディープニューラルネットワークの反転に関する最近の研究は、トレーニングデータの漏洩を防止するためのFLの安全性に関する懸念を提起した。
本研究では,本論文で提示されたこれらの攻撃が実際のFLユースケースでは実行不可能であることを示し,新たなベースライン攻撃を提供する。
論文 参考訳(メタデータ) (2022-02-14T18:33:12Z) - BEAS: Blockchain Enabled Asynchronous & Secure Federated Machine
Learning [0.0]
我々は、N-party Federated Learningのための最初のブロックチェーンベースのフレームワークBEASを紹介する。
グラデーションプルーニングを使用したトレーニングデータの厳格なプライバシー保証を提供する。
異常検出プロトコルは、データ汚染攻撃のリスクを最小限に抑えるために使用される。
また、異種学習環境における早期収束を防止するための新しいプロトコルも定義する。
論文 参考訳(メタデータ) (2022-02-06T17:11:14Z) - Decepticons: Corrupted Transformers Breach Privacy in Federated Learning
for Language Models [58.631918656336005]
悪意のあるパラメータベクトルを配置することで、プライベートなユーザテキストを明らかにする新たな攻撃を提案する。
FLに対する以前の攻撃とは異なり、攻撃はTransformerアーキテクチャとトークンの埋め込みの両方の特徴を利用する。
論文 参考訳(メタデータ) (2022-01-29T22:38:21Z) - Understanding Clipping for Federated Learning: Convergence and
Client-Level Differential Privacy [67.4471689755097]
本稿では, 切断したFedAvgが, 実質的なデータ均一性でも驚くほど良好に動作できることを実証的に示す。
本稿では,差分プライベート(DP)FedAvgアルゴリズムの収束解析を行い,クリッピングバイアスとクライアント更新の分布との関係を明らかにする。
論文 参考訳(メタデータ) (2021-06-25T14:47:19Z) - FedBoosting: Federated Learning with Gradient Protected Boosting for
Text Recognition [7.988454173034258]
フェデレートラーニング(FL)フレームワークは、データの集中化やデータオーナ間の共有なしに、共有モデルを協調的に学習することを可能にする。
本稿では,非独立性および非独立性分散(Non-IID)データに基づくジョイントモデルの一般化能力について述べる。
本稿では,FLの一般化と勾配リーク問題に対処する新しいブースティングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-14T18:47:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。