論文の概要: Defense Mechanisms Against Training-Hijacking Attacks in Split Learning
- arxiv url: http://arxiv.org/abs/2302.08618v1
- Date: Thu, 16 Feb 2023 23:02:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-20 16:24:45.336779
- Title: Defense Mechanisms Against Training-Hijacking Attacks in Split Learning
- Title(参考訳): スプリットラーニングにおけるトレーニングハイジャック攻撃に対する防御機構
- Authors: Ege Erdogan, Unat Teksen, Mehmet Salih Celiktenyildiz, Alptekin Kupcu,
A. Ercument Cicek
- Abstract要約: そこで本研究では,スプリットラーニングクライアントが,トレーニングハイジャック攻撃の対象であるか否かを検知する2つの手法を提案する。
我々の結論は、スプリットラーニングクライアントがユースケースに最も適する手法を使用することで、トレーニングハイジャック攻撃を継続的に検出できるということだ。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Distributed deep learning frameworks enable more efficient and privacy-aware
training of deep neural networks across multiple clients. Split learning
achieves this by splitting a neural network between a client and a server such
that the client computes the initial set of layers, and the server computes the
rest. However, this method introduces a unique attack vector for a malicious
server attempting to recover the client's private inputs: the server can direct
the client model towards learning any task of its choice, e.g. towards
outputting easily invertible values. With a concrete example already proposed
(Pasquini et al., ACM CCS '21), such \textit{training-hijacking} attacks
present a significant risk for the data privacy of split learning clients.
We propose two methods for a split learning client to detect if it is being
targeted by a training-hijacking attack or not. We experimentally evaluate our
methods' effectiveness, compare them with other potential solutions, and
discuss various points related to their use. Our conclusion is that by using
the method that best suits their use case, split learning clients can
consistently detect training-hijacking attacks and thus keep the information
gained by the attacker at a minimum.
- Abstract(参考訳): 分散ディープラーニングフレームワークは、複数のクライアントにわたるディープニューラルネットワークのより効率的でプライバシーに配慮したトレーニングを可能にする。
分割学習は、ニューラルネットワークをクライアントとサーバに分割して、クライアントが初期レイヤの集合を計算し、サーバが残りの集合を計算することで、これを実現する。
しかし、この手法では、クライアントのプライベートな入力を回復しようとする悪意のあるサーバに対してユニークな攻撃ベクトルを導入する。
すでに提案されている具体的な例(Pasquini et al., ACM CCS '21)では、分割学習クライアントのデータプライバシーに重大なリスクが生じる。我々は、分割学習クライアントがトレーニングハイジャック攻撃の対象になっているかどうかを検知する2つの方法を提案する。我々は、我々の方法の有効性を実験的に評価し、他の潜在的なソリューションと比較し、それらの使用に関する様々な点について議論する。
我々の結論は、スプリットラーニングクライアントがユースケースに最も適する手法を使用することで、トレーニングハイジャック攻撃を継続的に検出し、攻撃者が得た情報を最小限に抑えることができるということだ。
関連論文リスト
- Robust Federated Learning Mitigates Client-side Training Data
Distribution Inference Attacks [53.210725411547806]
InferGuardは、クライアント側のトレーニングデータ分散推論攻撃に対する防御を目的とした、新しいビザンチン・ロバスト集約ルールである。
実験の結果,我々の防衛機構はクライアント側のトレーニングデータ分布推定攻撃に対する防御に極めて有効であることが示唆された。
論文 参考訳(メタデータ) (2024-03-05T17:41:35Z) - Scalable Federated Unlearning via Isolated and Coded Sharding [76.12847512410767]
フェデレートされたアンラーニングは、クライアントレベルのデータエフェクトを削除するための有望なパラダイムとして登場した。
本稿では,分散シャーディングと符号化コンピューティングに基づく,スケーラブルなフェデレーション・アンラーニング・フレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-29T08:41:45Z) - Client-specific Property Inference against Secure Aggregation in
Federated Learning [52.8564467292226]
フェデレートラーニングは、さまざまな参加者の間で共通のモデルを協調的に訓練するための、広く使われているパラダイムとなっている。
多くの攻撃は、メンバーシップ、資産、または参加者データの完全な再構築のような機密情報を推測することは依然として可能であることを示した。
単純な線形モデルでは、集約されたモデル更新からクライアント固有のプロパティを効果的にキャプチャできることが示される。
論文 参考訳(メタデータ) (2023-03-07T14:11:01Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - Anomaly Detection via Federated Learning [3.0755847416657613]
本稿では,クライアントサーバ上で悪意あるネットワーク活動を検出するための,フェデレーション学習による新しい異常検出手法を提案する。
FedSamと呼ばれる新しいmin-maxスカラーとサンプリング技術を用いて、フェデレーション学習により、グローバルモデルが各クライアントのデータから学習できると判断した。
論文 参考訳(メタデータ) (2022-10-12T22:40:29Z) - Anomaly Detection through Unsupervised Federated Learning [0.0]
フェデレートラーニングは、分散リソースを活用する上で最も有望なパラダイムの1つであることが証明されています。
本稿では,前処理フェーズを通じて,クライアントをコミュニティにグループ化する手法を提案する。
結果の異常検出モデルは共有され、同じコミュニティのクライアント内の異常を検出するために使用される。
論文 参考訳(メタデータ) (2022-09-09T08:45:47Z) - Perfectly Accurate Membership Inference by a Dishonest Central Server in
Federated Learning [34.13555530204307]
フェデレートラーニングは、強力なプライバシー保証を提供すると期待されている。
本手法では, 単純だが非常に効果的なメンバーシップ推論攻撃アルゴリズムを提案する。
本手法は, 何千ものサンプルを用いたトレーニングセットにおいて, 1つのサンプルを同定する上で, 完全な精度を提供する。
論文 参考訳(メタデータ) (2022-03-30T17:01:19Z) - SplitGuard: Detecting and Mitigating Training-Hijacking Attacks in Split
Learning [0.0]
分割学習では、クライアントとサーバの間のニューラルネットワークを分割して、クライアントが初期レイヤの集合を計算し、サーバが残りの集合を演算する。
このようなトレーニングハイジャック攻撃は、スプリットラーニングクライアントのデータプライバシに重大なリスクをもたらす。
スプリットガード(SplitGuard)は、スプリットラーニングクライアントが、トレーニングハイジャック攻撃の対象になっているかどうかを検知する手法である。
論文 参考訳(メタデータ) (2021-08-20T08:29:22Z) - UnSplit: Data-Oblivious Model Inversion, Model Stealing, and Label
Inference Attacks Against Split Learning [0.0]
Split Learningフレームワークは、モデルをクライアントとサーバ間で分割することを目的としている。
分割学習パラダイムは深刻なセキュリティリスクを生じさせ,セキュリティの誤った感覚以上のものを提供しないことを示す。
論文 参考訳(メタデータ) (2021-08-20T07:39:16Z) - Federated Multi-Target Domain Adaptation [99.93375364579484]
フェデレートされた学習手法により、プライバシを保護しながら、分散ユーザデータ上で機械学習モデルをトレーニングすることが可能になります。
分散クライアントデータがラベル付けされず、集中型ラベル付きデータセットがサーバ上で利用可能となる、より実用的なシナリオを考えます。
本稿では,新しい課題に対処する効果的なDualAdapt法を提案する。
論文 参考訳(メタデータ) (2021-08-17T17:53:05Z) - Federated Learning with Unreliable Clients: Performance Analysis and
Mechanism Design [76.29738151117583]
Federated Learning(FL)は、分散クライアント間で効果的な機械学習モデルをトレーニングするための有望なツールとなっている。
しかし、低品質のモデルは信頼性の低いクライアントによってアグリゲータサーバにアップロードすることができ、劣化やトレーニングの崩壊につながる。
クライアントの信頼できない振る舞いをモデル化し、このようなセキュリティリスクを軽減するための防御メカニズムを提案する。
論文 参考訳(メタデータ) (2021-05-10T08:02:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。