論文の概要: Make Split, not Hijack: Preventing Feature-Space Hijacking Attacks in Split Learning
- arxiv url: http://arxiv.org/abs/2404.09265v1
- Date: Sun, 14 Apr 2024 14:14:31 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-16 14:48:15.271179
- Title: Make Split, not Hijack: Preventing Feature-Space Hijacking Attacks in Split Learning
- Title(参考訳): ヒジャックではなくスプリットを作る - スプリットラーニングにおける特徴空間ヒジャック攻撃の防止
- Authors: Tanveer Khan, Mindaugas Budzys, Antonis Michalas,
- Abstract要約: クライアントデータのプライバシを確保するために,Split Learning(SL)とFunction Secret Sharing(FSS)を組み合わせたハイブリッドアプローチを導入する。
我々のプロトコルは有望な結果をもたらし、SLを使わずに通信オーバヘッドを2倍以上削減し、FSSと同じモデルと比較して訓練時間を7倍以上削減する。
- 参考スコア(独自算出の注目度): 1.6822770693792823
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The popularity of Machine Learning (ML) makes the privacy of sensitive data more imperative than ever. Collaborative learning techniques like Split Learning (SL) aim to protect client data while enhancing ML processes. Though promising, SL has been proved to be vulnerable to a plethora of attacks, thus raising concerns about its effectiveness on data privacy. In this work, we introduce a hybrid approach combining SL and Function Secret Sharing (FSS) to ensure client data privacy. The client adds a random mask to the activation map before sending it to the servers. The servers cannot access the original function but instead work with shares generated using FSS. Consequently, during both forward and backward propagation, the servers cannot reconstruct the client's raw data from the activation map. Furthermore, through visual invertibility, we demonstrate that the server is incapable of reconstructing the raw image data from the activation map when using FSS. It enhances privacy by reducing privacy leakage compared to other SL-based approaches where the server can access client input information. Our approach also ensures security against feature space hijacking attack, protecting sensitive information from potential manipulation. Our protocols yield promising results, reducing communication overhead by over 2x and training time by over 7x compared to the same model with FSS, without any SL. Also, we show that our approach achieves >96% accuracy and remains equivalent to the plaintext models.
- Abstract(参考訳): 機械学習(ML)の人気は、機密データのプライバシをこれまで以上に重要視している。
Split Learning (SL)のような協調学習技術は、MLプロセスを拡張しながらクライアントデータを保護することを目的としている。
有望ではあるが、SLは多くの攻撃に対して脆弱であることが証明されており、データプライバシの有効性に対する懸念が高まっている。
本研究では,クライアントデータのプライバシを確保するために,SLとFSS(Function Secret Sharing)を組み合わせたハイブリッドアプローチを提案する。
クライアントは、サーバに送信する前に、アクティベーションマップにランダムマスクを追加する。
サーバは元の関数にアクセスすることはできないが、代わりにFSSを使って生成された共有を扱う。
これにより、サーバはアクティベーションマップからクライアントの生データを再構築できない。
さらに、視覚的可逆性により、FSSを使用する場合、活性化マップから生画像データを再構成することができないことを示す。
サーバがクライアント入力情報にアクセス可能な他のSLベースのアプローチと比較して、プライバシリークを低減することにより、プライバシを向上させる。
当社のアプローチは、機能空間のハイジャック攻撃に対するセキュリティを確保し、潜在的な操作から機密情報を保護します。
我々のプロトコルは有望な結果をもたらし、SLを使わずに通信オーバヘッドを2倍以上削減し、FSSと同じモデルと比較して訓練時間を7倍以上短縮する。
また,本手法は精度が96%以上であり,平文モデルと等価であることを示す。
関連論文リスト
- KnowledgeSG: Privacy-Preserving Synthetic Text Generation with Knowledge Distillation from Server [48.04903443425111]
大規模言語モデル (LLM) は、多くの当事者が自身のプライベートデータでLPMを微調整できるようにする。
置換のために合成データを利用するような既存のソリューションは、同時にパフォーマンスを改善し、プライバシを保存するのに苦労している。
我々は、合成データ品質を高め、プライバシを確保しつつモデル性能を向上させる新しいクライアントサーバフレームワークであるKnowledgeSGを提案する。
論文 参考訳(メタデータ) (2024-10-08T06:42:28Z) - Federated Face Forgery Detection Learning with Personalized Representation [63.90408023506508]
ディープジェネレータ技術は、区別がつかない高品質のフェイクビデオを制作し、深刻な社会的脅威をもたらす可能性がある。
従来の偽造検出手法は、データを直接集中的に訓練する。
本稿では,個人化表現を用いた新しいフェデレーション顔偽造検出学習を提案する。
論文 参考訳(メタデータ) (2024-06-17T02:20:30Z) - A Stealthy Wrongdoer: Feature-Oriented Reconstruction Attack against Split Learning [14.110303634976272]
Split Learning(SL)は、プライバシ保護機能と最小限の計算要件で有名な分散学習フレームワークである。
以前の研究は、トレーニングデータを再構築するサーバ敵によるSLシステムの潜在的なプライバシー侵害について、一貫して強調している。
本稿では,特徴指向再構築攻撃 (FORA) という,SL上での半正直なデータ再構成攻撃について紹介する。
論文 参考訳(メタデータ) (2024-05-07T08:38:35Z) - Love or Hate? Share or Split? Privacy-Preserving Training Using Split
Learning and Homomorphic Encryption [47.86010265348072]
Split Learning(SL)は、参加者がクライアントが生データを共有せずに機械学習モデルをトレーニングすることを可能にする、新たなコラボレーティブな学習テクニックである。
以前の研究は、アクティベーションマップの再構築がクライアントデータのプライバシー漏洩につながることを示した。
本稿では,U字型SLをベースとしたプロトコルを構築し,同義的に暗号化されたデータを操作することにより,従来の作業を改善する。
論文 参考訳(メタデータ) (2023-09-19T10:56:08Z) - A More Secure Split: Enhancing the Security of Privacy-Preserving Split Learning [2.853180143237022]
Split Learning(SL)は、参加者がクライアントが生データを共有せずに機械学習モデルをトレーニングすることを可能にする、新たなコラボレーティブな学習テクニックである。
以前の研究は、アクティベーションマップ(AM)の再構築がクライアントデータのプライバシー漏洩をもたらすことを示した。
本稿では,U字型SLをベースとしたプロトコルを構築し,同義的に暗号化されたデータを操作することにより,従来の作業を改善する。
論文 参考訳(メタデータ) (2023-09-15T18:39:30Z) - Split Without a Leak: Reducing Privacy Leakage in Split Learning [3.2066885499201176]
スプリットラーニング(SL)とホモモルフィック暗号化(HE)を用いたハイブリッド手法を提案する。
MIT-BIH データセットでは,SL と HE を用いたハイブリッド手法により,訓練時間(約6倍)が短縮され,通信オーバーヘッド(ほぼ160倍)が他の HE ベースの手法に比べて大幅に低減される。
論文 参考訳(メタデータ) (2023-08-30T06:28:42Z) - FedDefender: Client-Side Attack-Tolerant Federated Learning [60.576073964874]
フェデレーション学習は、プライバシを損なうことなく、分散化されたデータソースからの学習を可能にする。
悪意のあるクライアントがトレーニングプロセスに干渉する、毒殺攻撃のモデル化には脆弱である。
我々はFedDefenderと呼ばれるクライアントサイドに焦点を当てた新しい防御機構を提案し、クライアントの堅牢なローカルモデルのトレーニングを支援する。
論文 参考訳(メタデータ) (2023-07-18T08:00:41Z) - Subspace based Federated Unlearning [75.90552823500633]
フェデレート・アンラーニング(FL)は、ユーザが忘れられる権利を満たすために、特定のターゲットクライアントのFLへの貢献を取り除くことを目的としている。
既存のフェデレートされた未学習アルゴリズムでは、パラメータの更新履歴をサーバに格納する必要がある。
そこで我々は,SFUと呼ばれる,単純なyet効率のサブスペースに基づくフェデレーションアンラーニング手法を提案する。
論文 参考訳(メタデータ) (2023-02-24T04:29:44Z) - Split Ways: Privacy-Preserving Training of Encrypted Data Using Split
Learning [6.916134299626706]
Split Learning(SL)は、参加者がクライアントが生データを共有せずに機械学習モデルをトレーニングできる、新たなコラボレーティブ学習技術である。
以前の研究は、アクティベーションマップの再構築がクライアントデータのプライバシー漏洩につながることを示した。
本稿では,U字型SLをベースとしたプロトコルを構築し,同義的に暗号化されたデータを操作することにより,従来の作業を改善する。
論文 参考訳(メタデータ) (2023-01-20T19:26:51Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。