論文の概要: Love or Hate? Share or Split? Privacy-Preserving Training Using Split
Learning and Homomorphic Encryption
- arxiv url: http://arxiv.org/abs/2309.10517v1
- Date: Tue, 19 Sep 2023 10:56:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-20 15:06:12.454705
- Title: Love or Hate? Share or Split? Privacy-Preserving Training Using Split
Learning and Homomorphic Encryption
- Title(参考訳): 愛か憎しみか?
共有か分割か?
分割学習と準同型暗号を用いたプライバシー保護訓練
- Authors: Tanveer Khan, Khoa Nguyen, Antonis Michalas, Alexandros Bakas
- Abstract要約: Split Learning(SL)は、参加者がクライアントが生データを共有せずに機械学習モデルをトレーニングすることを可能にする、新たなコラボレーティブな学習テクニックである。
以前の研究は、アクティベーションマップの再構築がクライアントデータのプライバシー漏洩につながることを示した。
本稿では,U字型SLをベースとしたプロトコルを構築し,同義的に暗号化されたデータを操作することにより,従来の作業を改善する。
- 参考スコア(独自算出の注目度): 47.86010265348072
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Split learning (SL) is a new collaborative learning technique that allows
participants, e.g. a client and a server, to train machine learning models
without the client sharing raw data. In this setting, the client initially
applies its part of the machine learning model on the raw data to generate
activation maps and then sends them to the server to continue the training
process. Previous works in the field demonstrated that reconstructing
activation maps could result in privacy leakage of client data. In addition to
that, existing mitigation techniques that overcome the privacy leakage of SL
prove to be significantly worse in terms of accuracy. In this paper, we improve
upon previous works by constructing a protocol based on U-shaped SL that can
operate on homomorphically encrypted data. More precisely, in our approach, the
client applies homomorphic encryption on the activation maps before sending
them to the server, thus protecting user privacy. This is an important
improvement that reduces privacy leakage in comparison to other SL-based works.
Finally, our results show that, with the optimum set of parameters, training
with HE data in the U-shaped SL setting only reduces accuracy by 2.65% compared
to training on plaintext. In addition, raw training data privacy is preserved.
- Abstract(参考訳): 分割学習(slit learning, sl)は,クライアントやサーバなど参加者が生データを共有せずに機械学習モデルをトレーニングできる,新たな協調学習テクニックである。
この設定では、クライアントは最初、生データに機械学習モデルの一部を適用してアクティベーションマップを生成し、その後、トレーニングプロセスを続けるためにサーバに送信する。
この分野の以前の研究は、アクティベーションマップの再構築がクライアントデータのプライバシリークを引き起こすことを実証した。
それに加えて、SLのプライバシー漏洩を克服する既存の緩和技術は、精度の点で著しく悪化している。
本稿では,準同型暗号化されたデータ上で動作可能なu字型slに基づくプロトコルを構築することにより,これまでの作業を改善する。
より正確には、当社のアプローチでは、クライアントはアクティベーションマップに準同型暗号化を適用してサーバに送信し、ユーザのプライバシを保護する。
これは、他のSLベースの作業と比べてプライバシーの漏洩を減らす重要な改善である。
最後に, パラメータの最適セットを用いて, U字型SLにおけるHEデータを用いたトレーニングは, 平文でのトレーニングに比べて2.65%の精度しか低下しないことを示した。
さらに、生のトレーニングデータプライバシが保存される。
関連論文リスト
- Robust Federated Learning Mitigates Client-side Training Data
Distribution Inference Attacks [53.210725411547806]
InferGuardは、クライアント側のトレーニングデータ分散推論攻撃に対する防御を目的とした、新しいビザンチン・ロバスト集約ルールである。
実験の結果,我々の防衛機構はクライアント側のトレーニングデータ分布推定攻撃に対する防御に極めて有効であることが示唆された。
論文 参考訳(メタデータ) (2024-03-05T17:41:35Z) - Blockchain-enabled Trustworthy Federated Unlearning [50.01101423318312]
フェデレートアンラーニング(Federated Unlearning)は、分散クライアントのデータオーナシップを保護するための、有望なパラダイムである。
既存の作業では、分散クライアントからの履歴モデルパラメータを保持するために、中央サーバが必要である。
本稿では,ブロックチェーンによる信頼性の高いフェデレーションアンラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-29T07:04:48Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - Split Without a Leak: Reducing Privacy Leakage in Split Learning [3.2066885499201176]
スプリットラーニング(SL)とホモモルフィック暗号化(HE)を用いたハイブリッド手法を提案する。
MIT-BIH データセットでは,SL と HE を用いたハイブリッド手法により,訓練時間(約6倍)が短縮され,通信オーバーヘッド(ほぼ160倍)が他の HE ベースの手法に比べて大幅に低減される。
論文 参考訳(メタデータ) (2023-08-30T06:28:42Z) - Evaluating Privacy Leakage in Split Learning [8.841387955312669]
オンデバイス機械学習は、推論中にサードパーティサーバと生データを共有しないようにする。
Split Learning(SL)は、制限を克服できる有望なアプローチである。
SLでは、大きな機械学習モデルが2つの部分に分割され、大きな部分はサーバ側にあり、小さな部分はデバイス上で実行される。
論文 参考訳(メタデータ) (2023-05-22T13:00:07Z) - Client-specific Property Inference against Secure Aggregation in
Federated Learning [52.8564467292226]
フェデレートラーニングは、さまざまな参加者の間で共通のモデルを協調的に訓練するための、広く使われているパラダイムとなっている。
多くの攻撃は、メンバーシップ、資産、または参加者データの完全な再構築のような機密情報を推測することは依然として可能であることを示した。
単純な線形モデルでは、集約されたモデル更新からクライアント固有のプロパティを効果的にキャプチャできることが示される。
論文 参考訳(メタデータ) (2023-03-07T14:11:01Z) - Split Ways: Privacy-Preserving Training of Encrypted Data Using Split
Learning [6.916134299626706]
Split Learning(SL)は、参加者がクライアントが生データを共有せずに機械学習モデルをトレーニングできる、新たなコラボレーティブ学習技術である。
以前の研究は、アクティベーションマップの再構築がクライアントデータのプライバシー漏洩につながることを示した。
本稿では,U字型SLをベースとしたプロトコルを構築し,同義的に暗号化されたデータを操作することにより,従来の作業を改善する。
論文 参考訳(メタデータ) (2023-01-20T19:26:51Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - Efficient and Privacy Preserving Group Signature for Federated Learning [2.121963121603413]
Federated Learning(FL)は、ユーザデータのプライバシに対する脅威を軽減することを目的とした機械学習(ML)テクニックである。
本稿では,グループ署名に基づくFLの効率的かつプライバシ保護プロトコルを提案する。
論文 参考訳(メタデータ) (2022-07-12T04:12:10Z) - Vulnerability Due to Training Order in Split Learning [0.0]
分割学習では、no-peekアルゴリズムと呼ばれる追加のプライバシー保護アルゴリズムを組み込むことができ、敵対攻撃に対して堅牢である。
すべてのクライアントのデータを使ってトレーニングされたモデルは、モデルをトレーニングするためのラウンドの初期に考慮されたクライアントのデータではうまく動作しないことを示している。
また、SplitFedv3アルゴリズムは、分割学習によって得られるプライバシーの利点を引き続き活用しながら、この問題を軽減することを実証する。
論文 参考訳(メタデータ) (2021-03-26T06:30:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。