論文の概要: SplitOut: Out-of-the-Box Training-Hijacking Detection in Split Learning
via Outlier Detection
- arxiv url: http://arxiv.org/abs/2302.08618v2
- Date: Mon, 11 Dec 2023 21:13:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-13 20:39:24.125267
- Title: SplitOut: Out-of-the-Box Training-Hijacking Detection in Split Learning
via Outlier Detection
- Title(参考訳): splitout: outlier detectionによる分割学習におけるトレーニングハイジャック検出
- Authors: Ege Erdogan, Unat Teksen, Mehmet Salih Celiktenyildiz, Alptekin Kupcu,
A. Ercument Cicek
- Abstract要約: 分割学習は、ニューラルネットワークを分割して、クライアント(データ保持者)が最初のレイヤを計算し、中間出力を中央の計算量の多いサーバと共有するようにすることで、ディープニューラルネットワークの効率的でプライバシーに配慮したトレーニングを可能にする。
本研究では、クライアントの計算能力に関する控えめな仮定を与えられた場合、ほぼゼロの偽陽性率で既存のトレーニングハイジャック攻撃を検出するために、アウト・オブ・ザ・ボックス検出法が利用できることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Split learning enables efficient and privacy-aware training of a deep neural
network by splitting a neural network so that the clients (data holders)
compute the first layers and only share the intermediate output with the
central compute-heavy server. This paradigm introduces a new attack medium in
which the server has full control over what the client models learn, which has
already been exploited to infer the private data of clients and to implement
backdoors in the client models. Although previous work has shown that clients
can successfully detect such training-hijacking attacks, the proposed methods
rely on heuristics, require tuning of many hyperparameters, and do not fully
utilize the clients' capabilities. In this work, we show that given modest
assumptions regarding the clients' compute capabilities, an out-of-the-box
outlier detection method can be used to detect existing training-hijacking
attacks with almost-zero false positive rates. We conclude through experiments
on different tasks that the simplicity of our approach we name SplitOut makes
it a more viable and reliable alternative compared to the earlier detection
methods.
- Abstract(参考訳): 分割学習は、ニューラルネットワークを分割して、クライアント(データホルダ)が最初のレイヤを計算し、中間出力を中央の計算重サーバとのみ共有するようにすることで、ディープニューラルネットワークの効率的かつプライバシ対応なトレーニングを可能にする。
このパラダイムは、サーバがクライアントモデルが何を学習するかを完全にコントロールできる新しい攻撃媒体を導入し、クライアントのプライベートデータを推測し、クライアントモデルにバックドアを実装するために既に利用されています。
これまでの研究では、クライアントがこのようなトレーニングハイジャック攻撃をうまく検出できることが示されているが、提案手法はヒューリスティックスに依存し、多くのハイパーパラメータのチューニングを必要とし、クライアントの能力を十分に活用していない。
本研究では,クライアントの計算能力に関する控えめな仮定を前提として,既往のトレーニングハイジャック攻撃をほぼゼロの偽陽性率で検出するアウト・オブ・ボックス・アウト・ザ・ボックス・アウトリーバー検出法を提案する。
異なるタスクの実験を通じて、splitoutと名づけたアプローチの単純さが、以前の検出方法よりも実用的で信頼性の高い代替手段となることを結論付けました。
関連論文リスト
- Robust Federated Learning Mitigates Client-side Training Data
Distribution Inference Attacks [53.210725411547806]
InferGuardは、クライアント側のトレーニングデータ分散推論攻撃に対する防御を目的とした、新しいビザンチン・ロバスト集約ルールである。
実験の結果,我々の防衛機構はクライアント側のトレーニングデータ分布推定攻撃に対する防御に極めて有効であることが示唆された。
論文 参考訳(メタデータ) (2024-03-05T17:41:35Z) - Scalable Federated Unlearning via Isolated and Coded Sharding [76.12847512410767]
フェデレートされたアンラーニングは、クライアントレベルのデータエフェクトを削除するための有望なパラダイムとして登場した。
本稿では,分散シャーディングと符号化コンピューティングに基づく,スケーラブルなフェデレーション・アンラーニング・フレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-29T08:41:45Z) - Client-specific Property Inference against Secure Aggregation in
Federated Learning [52.8564467292226]
フェデレートラーニングは、さまざまな参加者の間で共通のモデルを協調的に訓練するための、広く使われているパラダイムとなっている。
多くの攻撃は、メンバーシップ、資産、または参加者データの完全な再構築のような機密情報を推測することは依然として可能であることを示した。
単純な線形モデルでは、集約されたモデル更新からクライアント固有のプロパティを効果的にキャプチャできることが示される。
論文 参考訳(メタデータ) (2023-03-07T14:11:01Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - Anomaly Detection via Federated Learning [3.0755847416657613]
本稿では,クライアントサーバ上で悪意あるネットワーク活動を検出するための,フェデレーション学習による新しい異常検出手法を提案する。
FedSamと呼ばれる新しいmin-maxスカラーとサンプリング技術を用いて、フェデレーション学習により、グローバルモデルが各クライアントのデータから学習できると判断した。
論文 参考訳(メタデータ) (2022-10-12T22:40:29Z) - Anomaly Detection through Unsupervised Federated Learning [0.0]
フェデレートラーニングは、分散リソースを活用する上で最も有望なパラダイムの1つであることが証明されています。
本稿では,前処理フェーズを通じて,クライアントをコミュニティにグループ化する手法を提案する。
結果の異常検出モデルは共有され、同じコミュニティのクライアント内の異常を検出するために使用される。
論文 参考訳(メタデータ) (2022-09-09T08:45:47Z) - Perfectly Accurate Membership Inference by a Dishonest Central Server in
Federated Learning [34.13555530204307]
フェデレートラーニングは、強力なプライバシー保証を提供すると期待されている。
本手法では, 単純だが非常に効果的なメンバーシップ推論攻撃アルゴリズムを提案する。
本手法は, 何千ものサンプルを用いたトレーニングセットにおいて, 1つのサンプルを同定する上で, 完全な精度を提供する。
論文 参考訳(メタデータ) (2022-03-30T17:01:19Z) - SplitGuard: Detecting and Mitigating Training-Hijacking Attacks in Split
Learning [0.0]
分割学習では、クライアントとサーバの間のニューラルネットワークを分割して、クライアントが初期レイヤの集合を計算し、サーバが残りの集合を演算する。
このようなトレーニングハイジャック攻撃は、スプリットラーニングクライアントのデータプライバシに重大なリスクをもたらす。
スプリットガード(SplitGuard)は、スプリットラーニングクライアントが、トレーニングハイジャック攻撃の対象になっているかどうかを検知する手法である。
論文 参考訳(メタデータ) (2021-08-20T08:29:22Z) - UnSplit: Data-Oblivious Model Inversion, Model Stealing, and Label
Inference Attacks Against Split Learning [0.0]
Split Learningフレームワークは、モデルをクライアントとサーバ間で分割することを目的としている。
分割学習パラダイムは深刻なセキュリティリスクを生じさせ,セキュリティの誤った感覚以上のものを提供しないことを示す。
論文 参考訳(メタデータ) (2021-08-20T07:39:16Z) - Federated Multi-Target Domain Adaptation [99.93375364579484]
フェデレートされた学習手法により、プライバシを保護しながら、分散ユーザデータ上で機械学習モデルをトレーニングすることが可能になります。
分散クライアントデータがラベル付けされず、集中型ラベル付きデータセットがサーバ上で利用可能となる、より実用的なシナリオを考えます。
本稿では,新しい課題に対処する効果的なDualAdapt法を提案する。
論文 参考訳(メタデータ) (2021-08-17T17:53:05Z) - Federated Learning with Unreliable Clients: Performance Analysis and
Mechanism Design [76.29738151117583]
Federated Learning(FL)は、分散クライアント間で効果的な機械学習モデルをトレーニングするための有望なツールとなっている。
しかし、低品質のモデルは信頼性の低いクライアントによってアグリゲータサーバにアップロードすることができ、劣化やトレーニングの崩壊につながる。
クライアントの信頼できない振る舞いをモデル化し、このようなセキュリティリスクを軽減するための防御メカニズムを提案する。
論文 参考訳(メタデータ) (2021-05-10T08:02:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。