論文の概要: Improving Efficiency in Federated Learning with Optimized Homomorphic Encryption
- arxiv url: http://arxiv.org/abs/2504.03002v1
- Date: Thu, 03 Apr 2025 19:50:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-14 22:03:56.938015
- Title: Improving Efficiency in Federated Learning with Optimized Homomorphic Encryption
- Title(参考訳): 最適化同型暗号化によるフェデレーション学習の効率化
- Authors: Feiran Yang,
- Abstract要約: フェデレーション・ラーニング(Federated Learning)とは、機械学習において、複数のデバイスがプライベートデータを共有せずにモデル上で連携できるようにする手法である。
FLにおけるプライバシの鍵となるのは、暗号化データ上で直接計算を行うことができるホモモルフィック暗号化(HE)である。
私の研究は、堅牢なプライバシー保証を維持しながら、これらの非効率性に対処する新しいアルゴリズムを紹介します。
- 参考スコア(独自算出の注目度): 9.759156649755235
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning is a method used in machine learning to allow multiple devices to work together on a model without sharing their private data. Each participant keeps their private data on their system and trains a local model and only sends updates to a central server, which combines these updates to improve the overall model. A key enabler of privacy in FL is homomorphic encryption (HE). HE allows computations to be performed directly on encrypted data. While HE offers strong privacy guarantees, it is computationally intensive, leading to significant latency and scalability issues, particularly for large-scale models like BERT. In my research, I aimed to address this inefficiency problem. My research introduces a novel algorithm to address these inefficiencies while maintaining robust privacy guarantees. I integrated several mathematical techniques such as selective parameter encryption, sensitivity maps, and differential privacy noise within my algorithms, which has already improved its efficiency. I have also conducted rigorous mathematical proofs to validate the correctness and robustness of the approach. I implemented this algorithm by coding it in C++, simulating the environment of federated learning on large-scale models, and verified that the efficiency of my algorithm is $3$ times the efficiency of the state-of-the-art method. This research has significant implications for machine learning because its ability to improve efficiency while balancing privacy makes it a practical solution! It would enable federated learning to be used very efficiently and deployed in various resource-constrained environments, as this research provides a novel solution to one of the key challenges in federated learning: the inefficiency of homomorphic encryption, as my new algorithm is able to enhance the scalability and resource efficiency of FL while maintaining robust privacy guarantees.
- Abstract(参考訳): フェデレーション・ラーニング(Federated Learning)とは、機械学習において、複数のデバイスがプライベートデータを共有せずにモデル上で連携できるようにする手法である。
各参加者は自身のプライベートデータをシステムに保持し、ローカルモデルをトレーニングし、中央サーバにのみアップデートを送信する。
FLにおけるプライバシーの鍵となるのは、ホモモルフィック暗号化(HE)である。
HEは暗号化データ上で直接計算を行うことを可能にする。
HEは強力なプライバシ保証を提供するが、計算集約的であり、特にBERTのような大規模モデルでは、大きなレイテンシとスケーラビリティの問題を引き起こす。
私の研究では、この非効率な問題に対処しようとしました。
私の研究は、堅牢なプライバシー保証を維持しながら、これらの非効率性に対処する新しいアルゴリズムを紹介します。
私は、選択パラメータの暗号化、感度マップ、微分プライバシーノイズなどの数学的手法をアルゴリズムに組み込んで、その効率をすでに改善しています。
また、厳密な数学的証明を行い、アプローチの正しさと頑健さを検証した。
このアルゴリズムをC++でコーディングし、大規模モデル上でのフェデレーション学習の環境をシミュレートし、私のアルゴリズムの効率が最先端手法の効率の3ドル倍であることを検証した。
この研究は、プライバシのバランスを保ちながら効率を向上させる能力によって、機械学習に重大な影響を及ぼす。
この研究は、フェデレートされた学習における重要な課題の1つ、すなわち、私の新しいアルゴリズムは、堅牢なプライバシー保証を維持しながらFLのスケーラビリティとリソース効率を向上させることができるため、同型暗号化の非効率性に対する新しいソリューションを提供する。
関連論文リスト
- A Selective Homomorphic Encryption Approach for Faster Privacy-Preserving Federated Learning [2.942616054218564]
フェデレーション学習(Federated Learning)は、分散デバイスやサーバ上でのトレーニングモデルをサポートする機械学習手法である。
このアプローチは、機密性の高いデータを共有せずにトレーニングできるため、医療において特に有用である。
我々は,データ漏洩を最小限に抑えるために,選択的暗号化,同型暗号化,差分プライバシー,ビットワイズスクランブルを利用する新しい手法を提案する。
論文 参考訳(メタデータ) (2025-01-22T14:37:44Z) - FedLALR: Client-Specific Adaptive Learning Rates Achieve Linear Speedup
for Non-IID Data [54.81695390763957]
フェデレートラーニング(Federated Learning)は、分散機械学習の手法である。
我々は,AMSGradの異種局所変種であるFedLALRを提案し,各クライアントが学習率を調整する。
クライアントが指定した自動調整型学習率スケジューリングが,クライアント数に対して収束し,線形高速化を実現することを示す。
論文 参考訳(メタデータ) (2023-09-18T12:35:05Z) - Robust Representation Learning for Privacy-Preserving Machine Learning:
A Multi-Objective Autoencoder Approach [0.9831489366502302]
プライバシー保護機械学習(ppML)のための堅牢な表現学習フレームワークを提案する。
提案手法は,多目的方式でオートエンコーダを訓練することを中心に,符号化部からの潜伏と学習の特徴を符号化形式として結合する。
提案したフレームワークでは、元のフォームを公開せずに、データを共有し、サードパーティツールを使用することができます。
論文 参考訳(メタデータ) (2023-09-08T16:41:25Z) - Theoretically Principled Federated Learning for Balancing Privacy and
Utility [61.03993520243198]
モデルパラメータを歪ませることでプライバシを保護する保護機構の一般学習フレームワークを提案する。
フェデレートされた学習における各コミュニケーションラウンドにおいて、各クライアント上の各モデルパラメータに対して、パーソナライズされたユーティリティプライバシトレードオフを実現することができる。
論文 参考訳(メタデータ) (2023-05-24T13:44:02Z) - When approximate design for fast homomorphic computation provides
differential privacy guarantees [0.08399688944263842]
差分プライバシー(DP)と暗号プリミティブは、プライバシー攻撃に対する一般的な対策である。
本稿では,argmax演算子に対する確率近似アルゴリズム ShiELD を設計する。
たとえShielDが他のアプリケーションを持つことができたとしても、私たちは1つの設定に集中し、SPEEDコラボレーティブトレーニングフレームワークにシームレスに統合します。
論文 参考訳(メタデータ) (2023-04-06T09:38:01Z) - sqSGD: Locally Private and Communication Efficient Federated Learning [14.60645909629309]
Federated Learning(FL)は、分散データソースから機械学習モデルをトレーニングするテクニックである。
我々は,通信効率と高次元互換性に対処するsqSGDという勾配学習アルゴリズムを開発した。
実験の結果、sqSGDはローカルのプライバシー制約でLeNetやResNetのような大規模なモデルをうまく学習している。
論文 参考訳(メタデータ) (2022-06-21T17:45:35Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - Faster Secure Data Mining via Distributed Homomorphic Encryption [108.77460689459247]
ホモモルフィック暗号化(HE)は、最近、暗号化されたフィールド上で計算を行う能力により、ますます注目を集めている。
本稿では,スケーリング問題の解決に向けて,新しい分散HEベースのデータマイニングフレームワークを提案する。
各種データマイニングアルゴリズムとベンチマークデータセットを用いて,新しいフレームワークの有効性と有効性を検証する。
論文 参考訳(メタデータ) (2020-06-17T18:14:30Z) - FedPD: A Federated Learning Framework with Optimal Rates and Adaptivity
to Non-IID Data [59.50904660420082]
フェデレートラーニング(FL)は、分散データから学ぶための一般的なパラダイムになっています。
クラウドに移行することなく、さまざまなデバイスのデータを効果的に活用するために、Federated Averaging(FedAvg)などのアルゴリズムでは、"Computation then aggregate"(CTA)モデルを採用している。
論文 参考訳(メタデータ) (2020-05-22T23:07:42Z) - User-Level Privacy-Preserving Federated Learning: Analysis and
Performance Optimization [77.43075255745389]
フェデレートラーニング(FL)は、データを有用なモデルにトレーニングしながら、モバイル端末(MT)からプライベートデータを保存することができる。
情報理論の観点からは、MTがアップロードした共有モデルから、好奇心の強いサーバがプライベートな情報を推測することが可能である。
サーバにアップロードする前に、共有モデルに人工ノイズを加えることで、ユーザレベルの差分プライバシー(UDP)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-02-29T10:13:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。