論文の概要: Federated Learning is Better with Non-Homomorphic Encryption
- arxiv url: http://arxiv.org/abs/2312.02074v1
- Date: Mon, 4 Dec 2023 17:37:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-05 14:15:54.357555
- Title: Federated Learning is Better with Non-Homomorphic Encryption
- Title(参考訳): 非同型暗号化によるフェデレーション学習
- Authors: Konstantin Burlachenko, Abdulmajeed Alrowithi, Fahad Ali Albalawi,
Peter Richtarik
- Abstract要約: Federated Learning(FL)は、生データを収集することなく、分散AIモデルのトレーニングを促進するパラダイムを提供する。
一般的な手法の1つは、ホモモルフィック暗号化(HE)を用いることである。
本稿では,置換型圧縮機と古典暗号を相乗化する革新的なフレームワークを提案する。
- 参考スコア(独自算出の注目度): 1.4110007887109783
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Traditional AI methodologies necessitate centralized data collection, which
becomes impractical when facing problems with network communication, data
privacy, or storage capacity. Federated Learning (FL) offers a paradigm that
empowers distributed AI model training without collecting raw data. There are
different choices for providing privacy during FL training. One of the popular
methodologies is employing Homomorphic Encryption (HE) - a breakthrough in
privacy-preserving computation from Cryptography. However, these methods have a
price in the form of extra computation and memory footprint. To resolve these
issues, we propose an innovative framework that synergizes permutation-based
compressors with Classical Cryptography, even though employing Classical
Cryptography was assumed to be impossible in the past in the context of FL. Our
framework offers a way to replace HE with cheaper Classical Cryptography
primitives which provides security for the training process. It fosters
asynchronous communication and provides flexible deployment options in various
communication topologies.
- Abstract(参考訳): 従来のAI方法論では,ネットワーク通信やデータプライバシ,ストレージ容量といった問題に直面した場合には,集中的なデータ収集が不可欠だ。
Federated Learning(FL)は、生データを収集することなく、分散AIモデルのトレーニングを促進するパラダイムを提供する。
flトレーニング中にプライバシを提供するには、さまざまな選択肢がある。
一般的な手法のひとつとして、準同型暗号化(homomorphic encryption:he)がある。
しかし、これらの手法は余分な計算とメモリフットプリントという形でコストがかかる。
これらの問題を解決するために,従来のFLの文脈では,古典暗号を用いることは不可能であったものの,置換型圧縮機と古典暗号を相乗化する革新的なフレームワークを提案する。
私たちのフレームワークは、HEをより安価な古典暗号プリミティブに置き換える手段を提供し、トレーニングプロセスのセキュリティを提供します。
非同期通信を促進し、さまざまな通信トポロジに柔軟なデプロイメントオプションを提供する。
関連論文リスト
- QuanCrypt-FL: Quantized Homomorphic Encryption with Pruning for Secure Federated Learning [0.48342038441006796]
我々は,攻撃に対する防御を強化するために,低ビット量子化とプルーニング技術を組み合わせた新しいアルゴリズムQuanCrypt-FLを提案する。
我々は、MNIST、CIFAR-10、CIFAR-100データセットに対するアプローチを検証し、最先端手法と比較して優れた性能を示す。
QuanCrypt-FLは、最大9倍高速暗号化、16倍高速復号化、1.5倍高速推論を実現し、トレーニング時間を最大3倍短縮する。
論文 参考訳(メタデータ) (2024-11-08T01:46:00Z) - Federated Learning with Quantum Computing and Fully Homomorphic Encryption: A Novel Computing Paradigm Shift in Privacy-Preserving ML [4.92218040320554]
フェデレートラーニング(Federated Learning)は、複数の学習クライアントがプライベートデータを公開せずにモデル知識を共有できるようにする、従来の方法に代わるプライバシ保護手法である。
この研究は、古典層と量子層の両方を統合するフェデレート学習ニューラルネットワークアーキテクチャに完全同型暗号化スキームを適用した。
論文 参考訳(メタデータ) (2024-09-14T01:23:26Z) - FLUE: Federated Learning with Un-Encrypted model weights [0.0]
フェデレートされた学習により、デバイスは、ローカルに保存されたトレーニングデータを保持しながら、共有モデルを協調的にトレーニングすることができる。
最近の研究では、トレーニング中に暗号化されたモデルパラメータを使うことが強調されている。
本稿では,符号化された局所勾配を暗号化なしで活用する,新しいフェデレーション学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-07-26T14:04:57Z) - PEOPL: Characterizing Privately Encoded Open Datasets with Public Labels [59.66777287810985]
プライバシとユーティリティのための情報理論スコアを導入し、不誠実なユーザの平均パフォーマンスを定量化する。
次に、ランダムなディープニューラルネットワークの使用を動機付ける符号化スキームのファミリーを構築する際のプリミティブを理論的に特徴づける。
論文 参考訳(メタデータ) (2023-03-31T18:03:53Z) - FedDBL: Communication and Data Efficient Federated Deep-Broad Learning
for Histopathological Tissue Classification [65.7405397206767]
本稿では,FedDBL(Federated Deep-Broad Learning)を提案する。
FedDBLは1ラウンドの通信と限られたトレーニングサンプルで競合相手をはるかに上回り、マルチラウンドの通信で同等のパフォーマンスを達成している。
異なるクライアント間でのデータやディープモデルを共有しないため、プライバシ問題は十分に解決されており、モデルのセキュリティはモデル反転攻撃のリスクなしに保証される。
論文 参考訳(メタデータ) (2023-02-24T14:27:41Z) - Federated Nearest Neighbor Machine Translation [66.8765098651988]
本稿では,FedNN(FedNN)機械翻訳フレームワークを提案する。
FedNNは1ラウンドの記憶に基づくインタラクションを活用して、異なるクライアント間で知識を共有する。
実験の結果,FedAvgと比較して,FedNNは計算コストと通信コストを著しく削減することがわかった。
論文 参考訳(メタデータ) (2023-02-23T18:04:07Z) - THE-X: Privacy-Preserving Transformer Inference with Homomorphic
Encryption [112.02441503951297]
トランスフォーマーモデルのプライバシ保護推論は、クラウドサービスユーザの要求に基づいています。
我々は、事前訓練されたモデルのプライバシ保存推論を可能にするトランスフォーマーの近似アプローチである$textitTHE-X$を紹介した。
論文 参考訳(メタデータ) (2022-06-01T03:49:18Z) - FLASHE: Additively Symmetric Homomorphic Encryption for Cross-Silo
Federated Learning [9.177048551836897]
ホモモルフィック暗号化(HE)は、クロスサイロ・フェデレーション・ラーニング(FL)のための有望なプライバシー保護技術である
ホモモルフィック暗号化(HE)は、クロスサイロ・フェデレーション・ラーニング(FL)のための有望なプライバシー保護技術である
論文 参考訳(メタデータ) (2021-09-02T02:36:04Z) - TenSEAL: A Library for Encrypted Tensor Operations Using Homomorphic
Encryption [0.0]
モノモルフィック暗号化を用いたプライバシー保護機械学習のためのオープンソースライブラリTenSEALを紹介します。
我々は,半メガバイト以下の通信を用いて,暗号化畳み込みニューラルネットワークを1秒以内で評価可能であることを示す。
論文 参考訳(メタデータ) (2021-04-07T14:32:38Z) - FedOCR: Communication-Efficient Federated Learning for Scene Text
Recognition [76.26472513160425]
本研究では、分散化されたデータセットを用いて、ロバストなシーンテキスト認識器を訓練する方法について研究する。
FedOCRをエンドデバイスにデプロイするのに適したものにするために、軽量モデルとハッシュ技術の使用を含む2つの改善を行った。
論文 参考訳(メタデータ) (2020-07-22T14:30:50Z) - User-Level Privacy-Preserving Federated Learning: Analysis and
Performance Optimization [77.43075255745389]
フェデレートラーニング(FL)は、データを有用なモデルにトレーニングしながら、モバイル端末(MT)からプライベートデータを保存することができる。
情報理論の観点からは、MTがアップロードした共有モデルから、好奇心の強いサーバがプライベートな情報を推測することが可能である。
サーバにアップロードする前に、共有モデルに人工ノイズを加えることで、ユーザレベルの差分プライバシー(UDP)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-02-29T10:13:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。