論文の概要: SplitGuard: Detecting and Mitigating Training-Hijacking Attacks in Split
Learning
- arxiv url: http://arxiv.org/abs/2108.09052v1
- Date: Fri, 20 Aug 2021 08:29:22 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-23 13:18:19.173391
- Title: SplitGuard: Detecting and Mitigating Training-Hijacking Attacks in Split
Learning
- Title(参考訳): SplitGuard: スプリットラーニングにおけるトレーニングハイジャック攻撃の検出と緩和
- Authors: Ege Erdogan, Alptekin Kupcu, A. Ercument Cicek
- Abstract要約: 分割学習では、クライアントとサーバの間のニューラルネットワークを分割して、クライアントが初期レイヤの集合を計算し、サーバが残りの集合を演算する。
このようなトレーニングハイジャック攻撃は、スプリットラーニングクライアントのデータプライバシに重大なリスクをもたらす。
スプリットガード(SplitGuard)は、スプリットラーニングクライアントが、トレーニングハイジャック攻撃の対象になっているかどうかを検知する手法である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Distributed deep learning frameworks, such as split learning, have recently
been proposed to enable a group of participants to collaboratively train a deep
neural network without sharing their raw data. Split learning in particular
achieves this goal by dividing a neural network between a client and a server
so that the client computes the initial set of layers, and the server computes
the rest. However, this method introduces a unique attack vector for a
malicious server attempting to steal the client's private data: the server can
direct the client model towards learning a task of its choice. With a concrete
example already proposed, such training-hijacking attacks present a significant
risk for the data privacy of split learning clients.
In this paper, we propose SplitGuard, a method by which a split learning
client can detect whether it is being targeted by a training-hijacking attack
or not. We experimentally evaluate its effectiveness, and discuss in detail
various points related to its use. We conclude that SplitGuard can effectively
detect training-hijacking attacks while minimizing the amount of information
recovered by the adversaries.
- Abstract(参考訳): 分割学習のような分散ディープラーニングフレームワークは、最近、参加者のグループが生データを共有せずにディープニューラルネットワークを協調的にトレーニングできるように提案されている。
特にスプリットラーニングは、クライアントとサーバの間のニューラルネットワークを分割して、クライアントが初期レイヤを計算し、サーバが残りのレイヤを計算することで、この目標を達成する。
しかし,本手法では,クライアントのプライベートデータを盗もうとする悪意のあるサーバに対して,クライアントモデルから選択したタスクを学習するためのユニークな攻撃ベクトルを導入する。
具体的な例がすでに提案されているように、このようなトレーニングハイジャック攻撃は、スプリットラーニングクライアントのデータプライバシに重大なリスクをもたらす。
本論文では,スプリット学習クライアントが,トレーニングハイジャック攻撃の対象であるか否かを検知する手法であるSplitGuardを提案する。
我々は,その効果を実験的に評価し,その利用に関する諸点を詳細に検討した。
スプリットガードは、敵が回収した情報の量を最小限に抑えつつ、トレーニングハイジャック攻撃を効果的に検出できると結論付けた。
関連論文リスト
- Robust Federated Learning Mitigates Client-side Training Data Distribution Inference Attacks [48.70867241987739]
InferGuardは、クライアント側のトレーニングデータ分散推論攻撃に対する防御を目的とした、新しいビザンチン・ロバスト集約ルールである。
実験の結果,我々の防衛機構はクライアント側のトレーニングデータ分布推定攻撃に対する防御に極めて有効であることが示唆された。
論文 参考訳(メタデータ) (2024-03-05T17:41:35Z) - FedDefender: Client-Side Attack-Tolerant Federated Learning [60.576073964874]
フェデレーション学習は、プライバシを損なうことなく、分散化されたデータソースからの学習を可能にする。
悪意のあるクライアントがトレーニングプロセスに干渉する、毒殺攻撃のモデル化には脆弱である。
我々はFedDefenderと呼ばれるクライアントサイドに焦点を当てた新しい防御機構を提案し、クライアントの堅牢なローカルモデルのトレーニングを支援する。
論文 参考訳(メタデータ) (2023-07-18T08:00:41Z) - SplitOut: Out-of-the-Box Training-Hijacking Detection in Split Learning via Outlier Detection [0.0]
分割学習は、ニューラルネットワークを分割して、クライアント(データ保持者)が最初のレイヤを計算し、中間出力を中央の計算量の多いサーバと共有するようにすることで、ディープニューラルネットワークの効率的でプライバシーに配慮したトレーニングを可能にする。
サーバはすでにクライアントのプライベートデータを推測し、クライアントモデルにバックドアを実装するために利用されています。
そこで本研究では,クライアントの計算能力に関する微妙な仮定を前提として,ほぼゼロの偽陽性率で既存のトレーニング・ハイジャック攻撃を検知するアウト・オブ・ボックス検出手法を提案する。
論文 参考訳(メタデータ) (2023-02-16T23:02:39Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - FLCert: Provably Secure Federated Learning against Poisoning Attacks [67.8846134295194]
FLCertは、有毒な攻撃に対して確実に安全であるアンサンブル・フェデレート学習フレームワークである。
実験の結果,テスト入力に対するFLCertで予測されたラベルは,有意な数の悪意のあるクライアントによって影響を受けないことが判明した。
論文 参考訳(メタデータ) (2022-10-02T17:50:04Z) - Network-Level Adversaries in Federated Learning [21.222645649379672]
ネットワークレベルの敵がフェデレーション学習モデルの訓練に与える影響について検討する。
攻撃者は、慎重に選択されたクライアントからネットワークトラフィックを落とすことで、ターゲット個体数のモデル精度を著しく低下させることができることを示す。
我々は,攻撃の影響を緩和するサーバサイドディフェンスを開発し,攻撃対象の精度に肯定的に寄与する可能性のあるクライアントを特定し,アップサンプリングすることで,攻撃の影響を緩和する。
論文 参考訳(メタデータ) (2022-08-27T02:42:04Z) - Truth Serum: Poisoning Machine Learning Models to Reveal Their Secrets [53.866927712193416]
トレーニングデータセットを有害にすることができる敵が、このデータセットでトレーニングされたモデルに、他の当事者のプライベート詳細を漏洩させる可能性があることを示す。
私たちの攻撃は、メンバーシップ推論、属性推論、データ抽出に効果的です。
私たちの結果は、機械学習のためのマルチパーティプロトコルにおける暗号化プライバシ保証の関連性に疑問を投げかけました。
論文 参考訳(メタデータ) (2022-03-31T18:06:28Z) - UnSplit: Data-Oblivious Model Inversion, Model Stealing, and Label
Inference Attacks Against Split Learning [0.0]
Split Learningフレームワークは、モデルをクライアントとサーバ間で分割することを目的としている。
分割学習パラダイムは深刻なセキュリティリスクを生じさせ,セキュリティの誤った感覚以上のものを提供しないことを示す。
論文 参考訳(メタデータ) (2021-08-20T07:39:16Z) - Vulnerability Due to Training Order in Split Learning [0.0]
分割学習では、no-peekアルゴリズムと呼ばれる追加のプライバシー保護アルゴリズムを組み込むことができ、敵対攻撃に対して堅牢である。
すべてのクライアントのデータを使ってトレーニングされたモデルは、モデルをトレーニングするためのラウンドの初期に考慮されたクライアントのデータではうまく動作しないことを示している。
また、SplitFedv3アルゴリズムは、分割学習によって得られるプライバシーの利点を引き続き活用しながら、この問題を軽減することを実証する。
論文 参考訳(メタデータ) (2021-03-26T06:30:54Z) - Unleashing the Tiger: Inference Attacks on Split Learning [2.492607582091531]
クライアントのプライベートトレーニングセットの再構築を目的とした汎用的な攻撃戦略を導入する。
悪意のあるサーバは、分散モデルの学習プロセスを積極的にハイジャックすることができる。
我々は、最近提案された防御手法を克服できることを実証する。
論文 参考訳(メタデータ) (2020-12-04T15:41:00Z) - Sampling Attacks: Amplification of Membership Inference Attacks by
Repeated Queries [74.59376038272661]
本手法は,他の標準メンバーシップ相手と異なり,被害者モデルのスコアにアクセスできないような厳格な制限の下で動作可能な,新しいメンバーシップ推論手法であるサンプリングアタックを導入する。
ラベルのみを公開している被害者モデルでは,攻撃のサンプリングが引き続き可能であり,攻撃者はその性能の最大100%を回復できることを示す。
防衛においては,被害者モデルのトレーニング中の勾配摂動と予測時の出力摂動の形式で差分プライバシーを選択する。
論文 参考訳(メタデータ) (2020-09-01T12:54:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。