論文の概要: Defense Mechanisms Against Training-Hijacking Attacks in Split Learning
- arxiv url: http://arxiv.org/abs/2302.08618v1
- Date: Thu, 16 Feb 2023 23:02:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-20 16:24:45.336779
- Title: Defense Mechanisms Against Training-Hijacking Attacks in Split Learning
- Title(参考訳): スプリットラーニングにおけるトレーニングハイジャック攻撃に対する防御機構
- Authors: Ege Erdogan, Unat Teksen, Mehmet Salih Celiktenyildiz, Alptekin Kupcu,
A. Ercument Cicek
- Abstract要約: そこで本研究では,スプリットラーニングクライアントが,トレーニングハイジャック攻撃の対象であるか否かを検知する2つの手法を提案する。
我々の結論は、スプリットラーニングクライアントがユースケースに最も適する手法を使用することで、トレーニングハイジャック攻撃を継続的に検出できるということだ。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Distributed deep learning frameworks enable more efficient and privacy-aware
training of deep neural networks across multiple clients. Split learning
achieves this by splitting a neural network between a client and a server such
that the client computes the initial set of layers, and the server computes the
rest. However, this method introduces a unique attack vector for a malicious
server attempting to recover the client's private inputs: the server can direct
the client model towards learning any task of its choice, e.g. towards
outputting easily invertible values. With a concrete example already proposed
(Pasquini et al., ACM CCS '21), such \textit{training-hijacking} attacks
present a significant risk for the data privacy of split learning clients.
We propose two methods for a split learning client to detect if it is being
targeted by a training-hijacking attack or not. We experimentally evaluate our
methods' effectiveness, compare them with other potential solutions, and
discuss various points related to their use. Our conclusion is that by using
the method that best suits their use case, split learning clients can
consistently detect training-hijacking attacks and thus keep the information
gained by the attacker at a minimum.
- Abstract(参考訳): 分散ディープラーニングフレームワークは、複数のクライアントにわたるディープニューラルネットワークのより効率的でプライバシーに配慮したトレーニングを可能にする。
分割学習は、ニューラルネットワークをクライアントとサーバに分割して、クライアントが初期レイヤの集合を計算し、サーバが残りの集合を計算することで、これを実現する。
しかし、この手法では、クライアントのプライベートな入力を回復しようとする悪意のあるサーバに対してユニークな攻撃ベクトルを導入する。
すでに提案されている具体的な例(Pasquini et al., ACM CCS '21)では、分割学習クライアントのデータプライバシーに重大なリスクが生じる。我々は、分割学習クライアントがトレーニングハイジャック攻撃の対象になっているかどうかを検知する2つの方法を提案する。我々は、我々の方法の有効性を実験的に評価し、他の潜在的なソリューションと比較し、それらの使用に関する様々な点について議論する。
我々の結論は、スプリットラーニングクライアントがユースケースに最も適する手法を使用することで、トレーニングハイジャック攻撃を継続的に検出し、攻撃者が得た情報を最小限に抑えることができるということだ。
関連論文リスト
- Edge-Only Universal Adversarial Attacks in Distributed Learning [49.546479320670464]
本研究では,攻撃者がモデルのエッジ部分のみにアクセスした場合に,ユニバーサルな敵攻撃を発生させる可能性について検討する。
提案手法は, エッジ側の重要な特徴を活用することで, 未知のクラウド部分において, 効果的な誤予測を誘導できることを示唆する。
ImageNetの結果は、未知のクラウド部分に対する強力な攻撃伝達性を示している。
論文 参考訳(メタデータ) (2024-11-15T11:06:24Z) - BoBa: Boosting Backdoor Detection through Data Distribution Inference in Federated Learning [26.714674251814586]
フェデレーテッド・ラーニングは、その分散した性質のため、毒殺の被害を受けやすい。
本稿では,この問題を解決するために,分布認識型異常検出機構であるBoBaを提案する。
論文 参考訳(メタデータ) (2024-07-12T19:38:42Z) - Federated Face Forgery Detection Learning with Personalized Representation [63.90408023506508]
ディープジェネレータ技術は、区別がつかない高品質のフェイクビデオを制作し、深刻な社会的脅威をもたらす可能性がある。
従来の偽造検出手法は、データを直接集中的に訓練する。
本稿では,個人化表現を用いた新しいフェデレーション顔偽造検出学習を提案する。
論文 参考訳(メタデータ) (2024-06-17T02:20:30Z) - Lightweight Unsupervised Federated Learning with Pretrained Vision Language Model [32.094290282897894]
フェデレートラーニングは、物理的に孤立したクライアントから、ユーザのデータのプライバシを保護しながら、集合モデルをトレーニングすることを目的としている。
本稿では,各クライアントのラベルのないデータを活用して,軽量なモデルトレーニングとコミュニケーションを行う,軽量な非教師付きフェデレーション学習手法を提案する。
提案手法は,CLIPのゼロショット予測と比較してモデル性能を大幅に向上させるとともに,教師付きフェデレーション学習ベンチマーク手法よりも優れる。
論文 参考訳(メタデータ) (2024-04-17T03:42:48Z) - Client-specific Property Inference against Secure Aggregation in
Federated Learning [52.8564467292226]
フェデレートラーニングは、さまざまな参加者の間で共通のモデルを協調的に訓練するための、広く使われているパラダイムとなっている。
多くの攻撃は、メンバーシップ、資産、または参加者データの完全な再構築のような機密情報を推測することは依然として可能であることを示した。
単純な線形モデルでは、集約されたモデル更新からクライアント固有のプロパティを効果的にキャプチャできることが示される。
論文 参考訳(メタデータ) (2023-03-07T14:11:01Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - Anomaly Detection via Federated Learning [3.0755847416657613]
本稿では,クライアントサーバ上で悪意あるネットワーク活動を検出するための,フェデレーション学習による新しい異常検出手法を提案する。
FedSamと呼ばれる新しいmin-maxスカラーとサンプリング技術を用いて、フェデレーション学習により、グローバルモデルが各クライアントのデータから学習できると判断した。
論文 参考訳(メタデータ) (2022-10-12T22:40:29Z) - SplitGuard: Detecting and Mitigating Training-Hijacking Attacks in Split
Learning [0.0]
分割学習では、クライアントとサーバの間のニューラルネットワークを分割して、クライアントが初期レイヤの集合を計算し、サーバが残りの集合を演算する。
このようなトレーニングハイジャック攻撃は、スプリットラーニングクライアントのデータプライバシに重大なリスクをもたらす。
スプリットガード(SplitGuard)は、スプリットラーニングクライアントが、トレーニングハイジャック攻撃の対象になっているかどうかを検知する手法である。
論文 参考訳(メタデータ) (2021-08-20T08:29:22Z) - UnSplit: Data-Oblivious Model Inversion, Model Stealing, and Label
Inference Attacks Against Split Learning [0.0]
Split Learningフレームワークは、モデルをクライアントとサーバ間で分割することを目的としている。
分割学習パラダイムは深刻なセキュリティリスクを生じさせ,セキュリティの誤った感覚以上のものを提供しないことを示す。
論文 参考訳(メタデータ) (2021-08-20T07:39:16Z) - Federated Multi-Target Domain Adaptation [99.93375364579484]
フェデレートされた学習手法により、プライバシを保護しながら、分散ユーザデータ上で機械学習モデルをトレーニングすることが可能になります。
分散クライアントデータがラベル付けされず、集中型ラベル付きデータセットがサーバ上で利用可能となる、より実用的なシナリオを考えます。
本稿では,新しい課題に対処する効果的なDualAdapt法を提案する。
論文 参考訳(メタデータ) (2021-08-17T17:53:05Z) - Federated Learning with Unreliable Clients: Performance Analysis and
Mechanism Design [76.29738151117583]
Federated Learning(FL)は、分散クライアント間で効果的な機械学習モデルをトレーニングするための有望なツールとなっている。
しかし、低品質のモデルは信頼性の低いクライアントによってアグリゲータサーバにアップロードすることができ、劣化やトレーニングの崩壊につながる。
クライアントの信頼できない振る舞いをモデル化し、このようなセキュリティリスクを軽減するための防御メカニズムを提案する。
論文 参考訳(メタデータ) (2021-05-10T08:02:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。