論文の概要: A Stealthy Wrongdoer: Feature-Oriented Reconstruction Attack against Split Learning
- arxiv url: http://arxiv.org/abs/2405.04115v1
- Date: Tue, 7 May 2024 08:38:35 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-08 14:49:39.367808
- Title: A Stealthy Wrongdoer: Feature-Oriented Reconstruction Attack against Split Learning
- Title(参考訳): スプリット学習に対する特徴指向的再構成攻撃
- Authors: Xiaoyang Xu, Mengda Yang, Wenzhe Yi, Ziang Li, Juan Wang, Hongxin Hu, Yong Zhuang, Yaxin Liu,
- Abstract要約: Split Learning(SL)は、プライバシ保護機能と最小限の計算要件で有名な分散学習フレームワークである。
以前の研究は、トレーニングデータを再構築するサーバ敵によるSLシステムの潜在的なプライバシー侵害について、一貫して強調している。
本稿では,特徴指向再構築攻撃 (FORA) という,SL上での半正直なデータ再構成攻撃について紹介する。
- 参考スコア(独自算出の注目度): 14.110303634976272
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Split Learning (SL) is a distributed learning framework renowned for its privacy-preserving features and minimal computational requirements. Previous research consistently highlights the potential privacy breaches in SL systems by server adversaries reconstructing training data. However, these studies often rely on strong assumptions or compromise system utility to enhance attack performance. This paper introduces a new semi-honest Data Reconstruction Attack on SL, named Feature-Oriented Reconstruction Attack (FORA). In contrast to prior works, FORA relies on limited prior knowledge, specifically that the server utilizes auxiliary samples from the public without knowing any client's private information. This allows FORA to conduct the attack stealthily and achieve robust performance. The key vulnerability exploited by FORA is the revelation of the model representation preference in the smashed data output by victim client. FORA constructs a substitute client through feature-level transfer learning, aiming to closely mimic the victim client's representation preference. Leveraging this substitute client, the server trains the attack model to effectively reconstruct private data. Extensive experiments showcase FORA's superior performance compared to state-of-the-art methods. Furthermore, the paper systematically evaluates the proposed method's applicability across diverse settings and advanced defense strategies.
- Abstract(参考訳): Split Learning(SL)は、プライバシ保護機能と最小限の計算要件で有名な分散学習フレームワークである。
以前の研究は、トレーニングデータを再構築するサーバ敵によるSLシステムの潜在的なプライバシー侵害について、一貫して強調している。
しかし、これらの研究は攻撃性能を高めるために強い仮定や妥協システムに頼っていることが多い。
本稿では,機能指向再構築攻撃 (FORA) と呼ばれる,SL上での半正直なデータ再構成攻撃について紹介する。
以前の作業とは対照的に、ForceAは限られた事前知識に依存しており、特にクライアントの個人情報を知らずに、サーバは公衆からの補助的なサンプルを利用する。
これにより、FOAは密かに攻撃を実行し、堅牢なパフォーマンスを達成することができる。
FORAが悪用した重要な脆弱性は、被害者のクライアントが出力するスマッシュデータにおいて、モデル表現の優先順位が明らかにされることである。
FORAは、特徴レベルの転送学習を通じて代替クライアントを構築し、被害者のクライアントの表現嗜好を忠実に模倣することを目的としている。
この代替クライアントを活用して、サーバは攻撃モデルをトレーニングして、プライベートデータを効果的に再構築する。
大規模な実験では、最先端の手法と比較してFORAの優れた性能を示している。
さらに,提案手法の適用可能性について,多種多様な設定と先進的な防衛戦略を体系的に評価した。
関連論文リスト
- Federated Face Forgery Detection Learning with Personalized Representation [63.90408023506508]
ディープジェネレータ技術は、区別がつかない高品質のフェイクビデオを制作し、深刻な社会的脅威をもたらす可能性がある。
従来の偽造検出手法は、データを直接集中的に訓練する。
本稿では,個人化表現を用いた新しいフェデレーション顔偽造検出学習を提案する。
論文 参考訳(メタデータ) (2024-06-17T02:20:30Z) - Let's Focus: Focused Backdoor Attack against Federated Transfer Learning [12.68970864847173]
フェデレート・トランスファー・ラーニング(Federated Transfer Learning, FTL)は、フェデレート・ラーニングの最も一般的なバリエーションである。
本稿では,この興味深いフェデレーション学習シナリオを検証し,脆弱性を特定して活用する。
提案した攻撃は、FTLのフェデレートラーニングフェーズにおいて、クライアントの1つによって実行される。
論文 参考訳(メタデータ) (2024-04-30T10:11:44Z) - Robust Federated Learning Mitigates Client-side Training Data Distribution Inference Attacks [48.70867241987739]
InferGuardは、クライアント側のトレーニングデータ分散推論攻撃に対する防御を目的とした、新しいビザンチン・ロバスト集約ルールである。
実験の結果,我々の防衛機構はクライアント側のトレーニングデータ分布推定攻撃に対する防御に極めて有効であることが示唆された。
論文 参考訳(メタデータ) (2024-03-05T17:41:35Z) - A More Secure Split: Enhancing the Security of Privacy-Preserving Split Learning [2.853180143237022]
Split Learning(SL)は、参加者がクライアントが生データを共有せずに機械学習モデルをトレーニングすることを可能にする、新たなコラボレーティブな学習テクニックである。
以前の研究は、アクティベーションマップ(AM)の再構築がクライアントデータのプライバシー漏洩をもたらすことを示した。
本稿では,U字型SLをベースとしたプロトコルを構築し,同義的に暗号化されたデータを操作することにより,従来の作業を改善する。
論文 参考訳(メタデータ) (2023-09-15T18:39:30Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - FedDefender: Client-Side Attack-Tolerant Federated Learning [60.576073964874]
フェデレーション学習は、プライバシを損なうことなく、分散化されたデータソースからの学習を可能にする。
悪意のあるクライアントがトレーニングプロセスに干渉する、毒殺攻撃のモデル化には脆弱である。
我々はFedDefenderと呼ばれるクライアントサイドに焦点を当てた新しい防御機構を提案し、クライアントの堅牢なローカルモデルのトレーニングを支援する。
論文 参考訳(メタデータ) (2023-07-18T08:00:41Z) - Local Model Reconstruction Attacks in Federated Learning and their Uses [9.14750410129878]
局所的なモデル再構築攻撃は、敵が他の古典的な攻撃をより効果的に引き起こすことを可能にする。
局所モデル再構成攻撃を利用したフェデレート学習におけるモデルベース属性推論攻撃を提案する。
我々の研究は、FLのプライバシーリスクを効果的に定量化するために、強力で説明可能な攻撃を設計するための新しい角度を提供する。
論文 参考訳(メタデータ) (2022-10-28T15:27:03Z) - RelaxLoss: Defending Membership Inference Attacks without Losing Utility [68.48117818874155]
より達成可能な学習目標を持つ緩和された損失に基づく新しい学習フレームワークを提案する。
RelaxLossは、簡単な実装と無視可能なオーバーヘッドのメリットを加えた任意の分類モデルに適用できる。
当社のアプローチはMIAに対するレジリエンスの観点から,常に最先端の防御機構より優れています。
論文 参考訳(メタデータ) (2022-07-12T19:34:47Z) - Curse or Redemption? How Data Heterogeneity Affects the Robustness of
Federated Learning [51.15273664903583]
データの不均一性は、フェデレートラーニングにおける重要な特徴の1つとして認識されているが、しばしば敵対的攻撃に対する堅牢性のレンズで見過ごされる。
本稿では, 複合学習におけるバックドア攻撃の影響を, 総合的な実験を通じて評価し, 理解することを目的とした。
論文 参考訳(メタデータ) (2021-02-01T06:06:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。