論文の概要: Privacy-preserving Collaborative Learning with Automatic Transformation
Search
- arxiv url: http://arxiv.org/abs/2011.12505v2
- Date: Sun, 28 Mar 2021 14:30:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-21 02:55:59.411642
- Title: Privacy-preserving Collaborative Learning with Automatic Transformation
Search
- Title(参考訳): 自動変換検索によるプライバシー保護協調学習
- Authors: Wei Gao, Shangwei Guo, Tianwei Zhang, Han Qiu, Yonggang Wen, Yang Liu
- Abstract要約: データプライバシ保護のメリットにより、コラボレーション学習は大きな人気を集めている。
最近の研究で、敵が共有勾配からセンシティブなトレーニングサンプルを完全に回収できることが判明した。
我々は、再構築攻撃を打倒するためにデータ拡張を活用することを提案する。
- 参考スコア(独自算出の注目度): 29.9237558707161
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Collaborative learning has gained great popularity due to its benefit of data
privacy protection: participants can jointly train a Deep Learning model
without sharing their training sets. However, recent works discovered that an
adversary can fully recover the sensitive training samples from the shared
gradients. Such reconstruction attacks pose severe threats to collaborative
learning. Hence, effective mitigation solutions are urgently desired.
In this paper, we propose to leverage data augmentation to defeat
reconstruction attacks: by preprocessing sensitive images with
carefully-selected transformation policies, it becomes infeasible for the
adversary to extract any useful information from the corresponding gradients.
We design a novel search method to automatically discover qualified policies.
We adopt two new metrics to quantify the impacts of transformations on data
privacy and model usability, which can significantly accelerate the search
speed. Comprehensive evaluations demonstrate that the policies discovered by
our method can defeat existing reconstruction attacks in collaborative
learning, with high efficiency and negligible impact on the model performance.
- Abstract(参考訳): 参加者は、トレーニングセットを共有することなく、Deep Learningモデルを共同でトレーニングすることができる。
しかし、最近の研究では、敵が共有勾配からセンシティブなトレーニングサンプルを完全に回収できることが判明した。
このような再建攻撃は、協調学習に深刻な脅威をもたらす。
したがって、効果的な緩和ソリューションが緊急に望まれる。
本稿では,データ拡張を利用して再構築攻撃を打倒することを提案する。慎重に選択された変換ポリシーで機密画像を前処理することで,敵が対応する勾配から有用な情報を抽出することは不可能となる。
我々は、資格ポリシーを自動的に発見する新しい探索法をデザインする。
データプライバシとモデルユーザビリティに対するトランスフォーメーションの影響を定量化するために,私たちは2つの新しいメトリクスを採用しています。
包括的評価により,本手法が発見した方針は,協調学習における既存のレコンストラクション攻撃を克服し,高効率かつ無視可能なモデル性能への影響を実証する。
関連論文リスト
- Enhancing Security Using Random Binary Weights in Privacy-Preserving Federated Learning [5.311735227179715]
視覚変換器を用いたプライバシー保護フェデレーション学習におけるセキュリティ向上手法を提案する。
連合学習では、各クライアントから生データを収集することなく更新情報を収集して学習を行う。
提案手法の有効性は, APRIL (Attention PRIvacy Leakage) 修復攻撃に対するモデル性能と抵抗の観点から確認した。
論文 参考訳(メタデータ) (2024-09-30T06:28:49Z) - Unlearning Backdoor Attacks through Gradient-Based Model Pruning [10.801476967873173]
本研究では,その軽減を未学習課題として扱うことによって,バックドア攻撃に対抗する新しい手法を提案する。
このアプローチは単純さと有効性を提供し、データ可用性に制限のあるシナリオに適しています。
論文 参考訳(メタデータ) (2024-05-07T00:36:56Z) - Learning to Learn Transferable Attack [77.67399621530052]
転送逆行攻撃は非自明なブラックボックス逆行攻撃であり、サロゲートモデル上で敵の摂動を発生させ、そのような摂動を被害者モデルに適用することを目的としている。
本研究では,データとモデル拡張の両方から学習することで,敵の摂動をより一般化する学習可能な攻撃学習法(LLTA)を提案する。
提案手法の有効性を実証し, 現状の手法と比較して, 12.85%のトランスファー攻撃の成功率で検証した。
論文 参考訳(メタデータ) (2021-12-10T07:24:21Z) - Where Did You Learn That From? Surprising Effectiveness of Membership
Inference Attacks Against Temporally Correlated Data in Deep Reinforcement
Learning [114.9857000195174]
深い強化学習を産業的に広く採用する上での大きな課題は、プライバシー侵害の潜在的な脆弱性である。
本稿では, 深層強化学習アルゴリズムの脆弱性を検証し, メンバーシップ推論攻撃に適応する対戦型攻撃フレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-08T23:44:57Z) - Privacy-Preserving Federated Learning on Partitioned Attributes [6.661716208346423]
フェデレーション学習は、ローカルデータやモデルを公開することなく、協調的なトレーニングを促進する。
ローカルモデルをチューニングし、プライバシー保護された中間表現をリリースする逆学習ベースの手順を紹介します。
精度低下を緩和するために,前方後方分割アルゴリズムに基づく防御法を提案する。
論文 参考訳(メタデータ) (2021-04-29T14:49:14Z) - Delving into Data: Effectively Substitute Training for Black-box Attack [84.85798059317963]
本稿では,知識盗むプロセスで使用されるデータの分散設計に焦点をあてた,新しい視点代替トレーニングを提案する。
これら2つのモジュールの組み合わせにより、代替モデルとターゲットモデルの一貫性がさらに向上し、敵攻撃の有効性が大幅に向上する。
論文 参考訳(メタデータ) (2021-04-26T07:26:29Z) - Curse or Redemption? How Data Heterogeneity Affects the Robustness of
Federated Learning [51.15273664903583]
データの不均一性は、フェデレートラーニングにおける重要な特徴の1つとして認識されているが、しばしば敵対的攻撃に対する堅牢性のレンズで見過ごされる。
本稿では, 複合学習におけるバックドア攻撃の影響を, 総合的な実験を通じて評価し, 理解することを目的とした。
論文 参考訳(メタデータ) (2021-02-01T06:06:21Z) - Sampling Attacks: Amplification of Membership Inference Attacks by
Repeated Queries [74.59376038272661]
本手法は,他の標準メンバーシップ相手と異なり,被害者モデルのスコアにアクセスできないような厳格な制限の下で動作可能な,新しいメンバーシップ推論手法であるサンプリングアタックを導入する。
ラベルのみを公開している被害者モデルでは,攻撃のサンプリングが引き続き可能であり,攻撃者はその性能の最大100%を回復できることを示す。
防衛においては,被害者モデルのトレーニング中の勾配摂動と予測時の出力摂動の形式で差分プライバシーを選択する。
論文 参考訳(メタデータ) (2020-09-01T12:54:54Z) - Adversarial Augmentation Policy Search for Domain and Cross-Lingual
Generalization in Reading Comprehension [96.62963688510035]
理解モデルを読むことは、しばしばトレーニングデータセットのニュアンスに過度に適合し、敵対的な評価に失敗する。
本稿では,複数の効果的な敵と自動データ拡張ポリシー探索手法を提案し,対角的評価に対して,読解理解モデルをより堅牢にすることを目的とする。
論文 参考訳(メタデータ) (2020-04-13T17:20:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。