論文の概要: SplitOut: Out-of-the-Box Training-Hijacking Detection in Split Learning
via Outlier Detection
- arxiv url: http://arxiv.org/abs/2302.08618v2
- Date: Mon, 11 Dec 2023 21:13:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-13 20:39:24.125267
- Title: SplitOut: Out-of-the-Box Training-Hijacking Detection in Split Learning
via Outlier Detection
- Title(参考訳): splitout: outlier detectionによる分割学習におけるトレーニングハイジャック検出
- Authors: Ege Erdogan, Unat Teksen, Mehmet Salih Celiktenyildiz, Alptekin Kupcu,
A. Ercument Cicek
- Abstract要約: 分割学習は、ニューラルネットワークを分割して、クライアント(データ保持者)が最初のレイヤを計算し、中間出力を中央の計算量の多いサーバと共有するようにすることで、ディープニューラルネットワークの効率的でプライバシーに配慮したトレーニングを可能にする。
本研究では、クライアントの計算能力に関する控えめな仮定を与えられた場合、ほぼゼロの偽陽性率で既存のトレーニングハイジャック攻撃を検出するために、アウト・オブ・ザ・ボックス検出法が利用できることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Split learning enables efficient and privacy-aware training of a deep neural
network by splitting a neural network so that the clients (data holders)
compute the first layers and only share the intermediate output with the
central compute-heavy server. This paradigm introduces a new attack medium in
which the server has full control over what the client models learn, which has
already been exploited to infer the private data of clients and to implement
backdoors in the client models. Although previous work has shown that clients
can successfully detect such training-hijacking attacks, the proposed methods
rely on heuristics, require tuning of many hyperparameters, and do not fully
utilize the clients' capabilities. In this work, we show that given modest
assumptions regarding the clients' compute capabilities, an out-of-the-box
outlier detection method can be used to detect existing training-hijacking
attacks with almost-zero false positive rates. We conclude through experiments
on different tasks that the simplicity of our approach we name SplitOut makes
it a more viable and reliable alternative compared to the earlier detection
methods.
- Abstract(参考訳): 分割学習は、ニューラルネットワークを分割して、クライアント(データホルダ)が最初のレイヤを計算し、中間出力を中央の計算重サーバとのみ共有するようにすることで、ディープニューラルネットワークの効率的かつプライバシ対応なトレーニングを可能にする。
このパラダイムは、サーバがクライアントモデルが何を学習するかを完全にコントロールできる新しい攻撃媒体を導入し、クライアントのプライベートデータを推測し、クライアントモデルにバックドアを実装するために既に利用されています。
これまでの研究では、クライアントがこのようなトレーニングハイジャック攻撃をうまく検出できることが示されているが、提案手法はヒューリスティックスに依存し、多くのハイパーパラメータのチューニングを必要とし、クライアントの能力を十分に活用していない。
本研究では,クライアントの計算能力に関する控えめな仮定を前提として,既往のトレーニングハイジャック攻撃をほぼゼロの偽陽性率で検出するアウト・オブ・ボックス・アウト・ザ・ボックス・アウトリーバー検出法を提案する。
異なるタスクの実験を通じて、splitoutと名づけたアプローチの単純さが、以前の検出方法よりも実用的で信頼性の高い代替手段となることを結論付けました。
関連論文リスト
- Edge-Only Universal Adversarial Attacks in Distributed Learning [49.546479320670464]
本研究では,攻撃者がモデルのエッジ部分のみにアクセスした場合に,ユニバーサルな敵攻撃を発生させる可能性について検討する。
提案手法は, エッジ側の重要な特徴を活用することで, 未知のクラウド部分において, 効果的な誤予測を誘導できることを示唆する。
ImageNetの結果は、未知のクラウド部分に対する強力な攻撃伝達性を示している。
論文 参考訳(メタデータ) (2024-11-15T11:06:24Z) - BoBa: Boosting Backdoor Detection through Data Distribution Inference in Federated Learning [26.714674251814586]
フェデレーテッド・ラーニングは、その分散した性質のため、毒殺の被害を受けやすい。
本稿では,この問題を解決するために,分布認識型異常検出機構であるBoBaを提案する。
論文 参考訳(メタデータ) (2024-07-12T19:38:42Z) - Federated Face Forgery Detection Learning with Personalized Representation [63.90408023506508]
ディープジェネレータ技術は、区別がつかない高品質のフェイクビデオを制作し、深刻な社会的脅威をもたらす可能性がある。
従来の偽造検出手法は、データを直接集中的に訓練する。
本稿では,個人化表現を用いた新しいフェデレーション顔偽造検出学習を提案する。
論文 参考訳(メタデータ) (2024-06-17T02:20:30Z) - Lightweight Unsupervised Federated Learning with Pretrained Vision Language Model [32.094290282897894]
フェデレートラーニングは、物理的に孤立したクライアントから、ユーザのデータのプライバシを保護しながら、集合モデルをトレーニングすることを目的としている。
本稿では,各クライアントのラベルのないデータを活用して,軽量なモデルトレーニングとコミュニケーションを行う,軽量な非教師付きフェデレーション学習手法を提案する。
提案手法は,CLIPのゼロショット予測と比較してモデル性能を大幅に向上させるとともに,教師付きフェデレーション学習ベンチマーク手法よりも優れる。
論文 参考訳(メタデータ) (2024-04-17T03:42:48Z) - Client-specific Property Inference against Secure Aggregation in
Federated Learning [52.8564467292226]
フェデレートラーニングは、さまざまな参加者の間で共通のモデルを協調的に訓練するための、広く使われているパラダイムとなっている。
多くの攻撃は、メンバーシップ、資産、または参加者データの完全な再構築のような機密情報を推測することは依然として可能であることを示した。
単純な線形モデルでは、集約されたモデル更新からクライアント固有のプロパティを効果的にキャプチャできることが示される。
論文 参考訳(メタデータ) (2023-03-07T14:11:01Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - Anomaly Detection via Federated Learning [3.0755847416657613]
本稿では,クライアントサーバ上で悪意あるネットワーク活動を検出するための,フェデレーション学習による新しい異常検出手法を提案する。
FedSamと呼ばれる新しいmin-maxスカラーとサンプリング技術を用いて、フェデレーション学習により、グローバルモデルが各クライアントのデータから学習できると判断した。
論文 参考訳(メタデータ) (2022-10-12T22:40:29Z) - SplitGuard: Detecting and Mitigating Training-Hijacking Attacks in Split
Learning [0.0]
分割学習では、クライアントとサーバの間のニューラルネットワークを分割して、クライアントが初期レイヤの集合を計算し、サーバが残りの集合を演算する。
このようなトレーニングハイジャック攻撃は、スプリットラーニングクライアントのデータプライバシに重大なリスクをもたらす。
スプリットガード(SplitGuard)は、スプリットラーニングクライアントが、トレーニングハイジャック攻撃の対象になっているかどうかを検知する手法である。
論文 参考訳(メタデータ) (2021-08-20T08:29:22Z) - UnSplit: Data-Oblivious Model Inversion, Model Stealing, and Label
Inference Attacks Against Split Learning [0.0]
Split Learningフレームワークは、モデルをクライアントとサーバ間で分割することを目的としている。
分割学習パラダイムは深刻なセキュリティリスクを生じさせ,セキュリティの誤った感覚以上のものを提供しないことを示す。
論文 参考訳(メタデータ) (2021-08-20T07:39:16Z) - Federated Multi-Target Domain Adaptation [99.93375364579484]
フェデレートされた学習手法により、プライバシを保護しながら、分散ユーザデータ上で機械学習モデルをトレーニングすることが可能になります。
分散クライアントデータがラベル付けされず、集中型ラベル付きデータセットがサーバ上で利用可能となる、より実用的なシナリオを考えます。
本稿では,新しい課題に対処する効果的なDualAdapt法を提案する。
論文 参考訳(メタデータ) (2021-08-17T17:53:05Z) - Federated Learning with Unreliable Clients: Performance Analysis and
Mechanism Design [76.29738151117583]
Federated Learning(FL)は、分散クライアント間で効果的な機械学習モデルをトレーニングするための有望なツールとなっている。
しかし、低品質のモデルは信頼性の低いクライアントによってアグリゲータサーバにアップロードすることができ、劣化やトレーニングの崩壊につながる。
クライアントの信頼できない振る舞いをモデル化し、このようなセキュリティリスクを軽減するための防御メカニズムを提案する。
論文 参考訳(メタデータ) (2021-05-10T08:02:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。