論文の概要: Secure Split Learning against Property Inference, Data Reconstruction,
and Feature Space Hijacking Attacks
- arxiv url: http://arxiv.org/abs/2304.09515v1
- Date: Wed, 19 Apr 2023 09:08:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-20 14:59:39.862932
- Title: Secure Split Learning against Property Inference, Data Reconstruction,
and Feature Space Hijacking Attacks
- Title(参考訳): プロパティ推論、データ再構成、特徴空間ハイジャック攻撃に対するセキュアな分割学習
- Authors: Yunlong Mao, Zexi Xin, Zhenyu Li, Jue Hong, Qingyou Yang, Sheng Zhong
- Abstract要約: ディープニューラルネットワーク(SplitNN)の分割学習は、ゲストとホストの相互関心のために共同で学習するための有望なソリューションを提供する。
SplitNNは、敵の参加者のための新たな攻撃面を作成し、現実の世界での使用を抑える。
本稿では,プロパティ推論,データ再構成,特徴的ハイジャック攻撃など,高度に脅かされる攻撃の敵対的効果について検討する。
本稿では,R3eLUという新たなアクティベーション関数を提案する。
- 参考スコア(独自算出の注目度): 5.209316363034367
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Split learning of deep neural networks (SplitNN) has provided a promising
solution to learning jointly for the mutual interest of a guest and a host,
which may come from different backgrounds, holding features partitioned
vertically. However, SplitNN creates a new attack surface for the adversarial
participant, holding back its practical use in the real world. By investigating
the adversarial effects of highly threatening attacks, including property
inference, data reconstruction, and feature hijacking attacks, we identify the
underlying vulnerability of SplitNN and propose a countermeasure. To prevent
potential threats and ensure the learning guarantees of SplitNN, we design a
privacy-preserving tunnel for information exchange between the guest and the
host. The intuition is to perturb the propagation of knowledge in each
direction with a controllable unified solution. To this end, we propose a new
activation function named R3eLU, transferring private smashed data and partial
loss into randomized responses in forward and backward propagations,
respectively. We give the first attempt to secure split learning against three
threatening attacks and present a fine-grained privacy budget allocation
scheme. The analysis proves that our privacy-preserving SplitNN solution
provides a tight privacy budget, while the experimental results show that our
solution performs better than existing solutions in most cases and achieves a
good tradeoff between defense and model usability.
- Abstract(参考訳): ディープニューラルネットワーク(SplitNN)の分割学習は、ゲストとホストの相互関心のために共同で学習するための有望なソリューションを提供する。
しかし、SplitNNは敵の参加者に対して新たな攻撃面を作成し、現実の世界での使用を控える。
プロパティ推論やデータ再構成,機能ハイジャック攻撃など,高度に脅かされる攻撃の敵意的影響を調査することにより,splitnnの基盤となる脆弱性を特定し,対策を提案する。
潜在的な脅威を防止し、SplitNNの学習保証を確保するため、ゲストとホスト間の情報交換のためのプライバシー保護トンネルを設計する。
その直感は、制御可能な統一解で各方向の知識の伝播を摂動させることである。
そこで本研究では,非破壊データと部分損失をそれぞれ前方および後方伝播のランダム化応答に伝達する,r3eluという新たな活性化関数を提案する。
我々は,3つの脅迫攻撃に対する分割学習を確保する最初の試みを行い,きめ細かいプライバシー予算配分方式を提案する。
分析の結果、私たちのプライバシを保存できるsplitnnソリューションは、厳密なプライバシー予算を提供し、実験の結果、私たちのソリューションは、ほとんどの場合、既存のソリューションよりも優れたパフォーマンスを示し、防御とモデルユーザビリティの間の良好なトレードオフを実現しています。
関連論文リスト
- Edge-Only Universal Adversarial Attacks in Distributed Learning [49.546479320670464]
本研究では,攻撃者がモデルのエッジ部分のみにアクセスした場合に,ユニバーサルな敵攻撃を発生させる可能性について検討する。
提案手法は, エッジ側の重要な特徴を活用することで, 未知のクラウド部分において, 効果的な誤予測を誘導できることを示唆する。
ImageNetの結果は、未知のクラウド部分に対する強力な攻撃伝達性を示している。
論文 参考訳(メタデータ) (2024-11-15T11:06:24Z) - Investigating Privacy Attacks in the Gray-Box Setting to Enhance Collaborative Learning Schemes [7.651569149118461]
我々は、攻撃者がモデルに限られたアクセスしかできないグレーボックス設定でプライバシ攻撃を研究する。
SmartNNCryptは、同型暗号化を調整して、より高いプライバシーリスクを示すモデルの部分を保護するフレームワークです。
論文 参考訳(メタデータ) (2024-09-25T18:49:21Z) - Secure Aggregation is Not Private Against Membership Inference Attacks [66.59892736942953]
フェデレーション学習におけるSecAggのプライバシーへの影響について検討する。
SecAggは、単一のトレーニングラウンドであっても、メンバシップ推論攻撃に対して弱いプライバシを提供します。
以上の結果から,ノイズ注入などの付加的なプライバシー強化機構の必要性が浮き彫りになった。
論文 参考訳(メタデータ) (2024-03-26T15:07:58Z) - TernaryVote: Differentially Private, Communication Efficient, and
Byzantine Resilient Distributed Optimization on Heterogeneous Data [50.797729676285876]
本稿では, 3次圧縮機と多数決機構を組み合わせて, 差分プライバシー, 勾配圧縮, ビザンチンレジリエンスを同時に実現するternaryVoteを提案する。
提案アルゴリズムのF差分プライバシー(DP)とビザンチンレジリエンスのレンズによるプライバシー保証を理論的に定量化する。
論文 参考訳(メタデータ) (2024-02-16T16:41:14Z) - Turning Privacy-preserving Mechanisms against Federated Learning [22.88443008209519]
我々は、連邦学習のための最先端の防衛を無効化できる攻撃を設計する。
提案した攻撃には、2つの動作モードが含まれており、第1は収束抑制(逆モード)に焦点を当て、第2はグローバルフェデレーションモデル(バックドアモード)に誤評価インジェクションを構築することを目的としている。
実験の結果,バックドアモードで実施したテストの93%のケースにおいて,両モードにおける攻撃の有効性が示され,敵モードと完全有効バックドアの全テストにおいて平均60%のパフォーマンス低下が回復した。
論文 参考訳(メタデータ) (2023-05-09T11:43:31Z) - Feature Space Hijacking Attacks against Differentially Private Split
Learning [0.0]
分散学習と差分プライバシーは、分散データセット上でのプライバシーに準拠した高度な分析を支援する可能性がある技術である。
この研究は、クライアントサイドのオフザシェルフDPを使用して、差分プライバシ(DP)で強化されたスプリットニューラルネットワークの学習プロセスに、最近のフィーチャースペースハイジャック攻撃(FSHA)を適用している。
FSHA攻撃は、任意に設定されたDPエプシロンレベルでエラー率の低いクライアントのプライベートデータ再構成を取得する。
論文 参考訳(メタデータ) (2022-01-11T16:06:18Z) - Privacy-Preserving Federated Learning on Partitioned Attributes [6.661716208346423]
フェデレーション学習は、ローカルデータやモデルを公開することなく、協調的なトレーニングを促進する。
ローカルモデルをチューニングし、プライバシー保護された中間表現をリリースする逆学習ベースの手順を紹介します。
精度低下を緩和するために,前方後方分割アルゴリズムに基づく防御法を提案する。
論文 参考訳(メタデータ) (2021-04-29T14:49:14Z) - Practical Defences Against Model Inversion Attacks for Split Neural
Networks [5.66430335973956]
本稿では,ネットワーク分割型フェデレーション学習システムが悪意のある計算サーバによるモデルインバージョン攻撃に影響を受けやすい脅威モデルについて述べる。
モデルインバージョンを防御するための簡易な付加雑音法を提案し,mnistの許容精度トレードオフにおいて攻撃効果を著しく低減できることを示す。
論文 参考訳(メタデータ) (2021-04-12T18:12:17Z) - Curse or Redemption? How Data Heterogeneity Affects the Robustness of
Federated Learning [51.15273664903583]
データの不均一性は、フェデレートラーニングにおける重要な特徴の1つとして認識されているが、しばしば敵対的攻撃に対する堅牢性のレンズで見過ごされる。
本稿では, 複合学習におけるバックドア攻撃の影響を, 総合的な実験を通じて評価し, 理解することを目的とした。
論文 参考訳(メタデータ) (2021-02-01T06:06:21Z) - Graph-Homomorphic Perturbations for Private Decentralized Learning [64.26238893241322]
ローカルな見積もりの交換は、プライベートデータに基づくデータの推測を可能にする。
すべてのエージェントで独立して選択された摂動により、パフォーマンスが著しく低下する。
本稿では,特定のヌル空間条件に従って摂動を構成する代替スキームを提案する。
論文 参考訳(メタデータ) (2020-10-23T10:35:35Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。