論文の概要: Effect of Homomorphic Encryption on the Performance of Training
Federated Learning Generative Adversarial Networks
- arxiv url: http://arxiv.org/abs/2207.00263v1
- Date: Fri, 1 Jul 2022 08:35:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-04 23:41:06.993716
- Title: Effect of Homomorphic Encryption on the Performance of Training
Federated Learning Generative Adversarial Networks
- Title(参考訳): フェデレーション・ジェネレーション・ジェネラル・ネットワークの学習性能に及ぼす同型暗号化の影響
- Authors: Ignjat Pejic, Rui Wang, and Kaitai Liang
- Abstract要約: GAN(Generative Adversarial Network)は、機械学習(ML)分野におけるディープラーニング生成モデルである。
医学などの特定の分野において、トレーニングデータは、異なる病院にまたがって保存される病院患者の記録である可能性がある。
本稿では,3種類のホモモルフィック暗号を用いたFL-GANの学習性能の低下に着目した。
- 参考スコア(独自算出の注目度): 10.030986278376567
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A Generative Adversarial Network (GAN) is a deep-learning generative model in
the field of Machine Learning (ML) that involves training two Neural Networks
(NN) using a sizable data set. In certain fields, such as medicine, the
training data may be hospital patient records that are stored across different
hospitals. The classic centralized approach would involve sending the data to a
centralized server where the model would be trained. However, that would
involve breaching the privacy and confidentiality of the patients and their
data, which would be unacceptable. Therefore, Federated Learning (FL), an ML
technique that trains ML models in a distributed setting without data ever
leaving the host device, would be a better alternative to the centralized
option. In this ML technique, only parameters and certain metadata would be
communicated. In spite of that, there still exist attacks that can infer user
data using the parameters and metadata. A fully privacy-preserving solution
involves homomorphically encrypting (HE) the data communicated. This paper will
focus on the performance loss of training an FL-GAN with three different types
of Homomorphic Encryption: Partial Homomorphic Encryption (PHE), Somewhat
Homomorphic Encryption (SHE), and Fully Homomorphic Encryption (FHE). We will
also test the performance loss of Multi-Party Computations (MPC), as it has
homomorphic properties. The performances will be compared to the performance of
training an FL-GAN without encryption as well. Our experiments show that the
more complex the encryption method is, the longer it takes, with the extra time
taken for HE is quite significant in comparison to the base case of FL.
- Abstract(参考訳): generative adversarial network(gan)は、機械学習(ml)分野のディープラーニング生成モデルであり、大きなデータセットを使用して2つのニューラルネットワーク(nn)をトレーニングする。
医学などの特定の分野では、トレーニングデータは病院の患者の記録であり、異なる病院にまたがって保存される。
古典的な集中型アプローチでは、モデルをトレーニングする集中型サーバにデータを送信する必要がある。
しかし、それは患者とそのデータのプライバシーと機密性を侵害することであり、それは容認できない。
したがって、データがホストデバイスを離れることなく分散環境でmlモデルをトレーニングするmlテクニックであるfederated learning(fl)は、集中型オプションよりも優れた選択肢となるでしょう。
このML手法では、パラメータと特定のメタデータだけが通信される。
それにもかかわらず、パラメータとメタデータを使用してユーザデータを推測できるアタックが存在する。
完全なプライバシ保護ソリューションは、通信されたデータの同型暗号化(HE)を含む。
本稿では,PHE (Partial Homomorphic Encryption) ,Somewhat Homomorphic Encryption (SHE) ,FHE (Fully Homomorphic Encryption) の3つの異なるタイプのFL-GANのトレーニング性能損失に着目した。
また,準同型性を持つマルチパーティ計算(mpc)の性能損失についても検証する。
パフォーマンスは、FL-GANを暗号化なしでトレーニングするパフォーマンスと比較される。
私たちの実験では、暗号化方法が複雑であればあるほど、時間がかかるほど、flのベースケースと比較して、彼にとってかなりの時間を要することが示されています。
関連論文リスト
- FedGS: Federated Gradient Scaling for Heterogeneous Medical Image Segmentation [0.4499833362998489]
そこで本研究では,FedGSという新しいFLアグリゲーション手法を提案する。
FedGSは、特に小さな病変に対して、PolypGenとLiTSデータセット間で、FedAvgよりも優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2024-08-21T15:26:21Z) - Assessing Neural Network Representations During Training Using
Noise-Resilient Diffusion Spectral Entropy [55.014926694758195]
ニューラルネットワークにおけるエントロピーと相互情報は、学習プロセスに関する豊富な情報を提供する。
データ幾何を利用して基礎となる多様体にアクセスし、これらの情報理論測度を確実に計算する。
本研究は,高次元シミュレーションデータにおける固有次元と関係強度の耐雑音性の測定結果である。
論文 参考訳(メタデータ) (2023-12-04T01:32:42Z) - Robust Representation Learning for Privacy-Preserving Machine Learning:
A Multi-Objective Autoencoder Approach [0.9831489366502302]
プライバシー保護機械学習(ppML)のための堅牢な表現学習フレームワークを提案する。
提案手法は,多目的方式でオートエンコーダを訓練することを中心に,符号化部からの潜伏と学習の特徴を符号化形式として結合する。
提案したフレームワークでは、元のフォームを公開せずに、データを共有し、サードパーティツールを使用することができます。
論文 参考訳(メタデータ) (2023-09-08T16:41:25Z) - PEOPL: Characterizing Privately Encoded Open Datasets with Public Labels [59.66777287810985]
プライバシとユーティリティのための情報理論スコアを導入し、不誠実なユーザの平均パフォーマンスを定量化する。
次に、ランダムなディープニューラルネットワークの使用を動機付ける符号化スキームのファミリーを構築する際のプリミティブを理論的に特徴づける。
論文 参考訳(メタデータ) (2023-03-31T18:03:53Z) - Federated Nearest Neighbor Machine Translation [66.8765098651988]
本稿では,FedNN(FedNN)機械翻訳フレームワークを提案する。
FedNNは1ラウンドの記憶に基づくインタラクションを活用して、異なるクライアント間で知識を共有する。
実験の結果,FedAvgと比較して,FedNNは計算コストと通信コストを著しく削減することがわかった。
論文 参考訳(メタデータ) (2023-02-23T18:04:07Z) - HE-MAN -- Homomorphically Encrypted MAchine learning with oNnx models [0.23624125155742057]
ホモモルフィック暗号化(FHE)は、プライバシを諦めることなくMLサービスを使用する個人を可能にする、有望なテクニックである。
我々は、ONNXモデルと同型暗号化データとの推論をプライバシー保護するためのオープンソースの機械学習ツールセットであるHE-MANを紹介する。
HE-MANは以前の作業と比較して、ONNXフォーマットの幅広いMLモデルをサポートしているが、精度を犠牲にしない。
論文 参考訳(メタデータ) (2023-02-16T12:37:14Z) - Federated Split GANs [12.007429155505767]
ユーザデバイス自体でMLモデルをトレーニングするための代替手法を提案する。
我々は、GAN(ジェネレーティブ・逆境ネットワーク)に注目し、その固有のプライバシー保護属性を活用する。
我々のシステムはデータのプライバシを保ち、短時間のトレーニング時間を保ち、制約のないデバイスで同じ精度でモデルトレーニングを行う。
論文 参考訳(メタデータ) (2022-07-04T23:53:47Z) - THE-X: Privacy-Preserving Transformer Inference with Homomorphic
Encryption [112.02441503951297]
トランスフォーマーモデルのプライバシ保護推論は、クラウドサービスユーザの要求に基づいています。
我々は、事前訓練されたモデルのプライバシ保存推論を可能にするトランスフォーマーの近似アプローチである$textitTHE-X$を紹介した。
論文 参考訳(メタデータ) (2022-06-01T03:49:18Z) - Homomorphic Encryption and Federated Learning based Privacy-Preserving
CNN Training: COVID-19 Detection Use-Case [0.41998444721319217]
本稿では、同相暗号を用いた医療データのためのプライバシー保護フェデレーション学習アルゴリズムを提案する。
提案アルゴリズムはセキュアなマルチパーティ計算プロトコルを用いて,ディープラーニングモデルを敵から保護する。
論文 参考訳(メタデータ) (2022-04-16T08:38:35Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - Category-Learning with Context-Augmented Autoencoder [63.05016513788047]
実世界のデータの解釈可能な非冗長表現を見つけることは、機械学習の鍵となる問題の一つである。
本稿では,オートエンコーダのトレーニングにデータ拡張を利用する新しい手法を提案する。
このような方法で変分オートエンコーダを訓練し、補助ネットワークによって変換結果を予測できるようにする。
論文 参考訳(メタデータ) (2020-10-10T14:04:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。