論文の概要: Privacy Against Inference Attacks in Vertical Federated Learning
- arxiv url: http://arxiv.org/abs/2207.11788v1
- Date: Sun, 24 Jul 2022 18:33:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-26 16:05:45.652864
- Title: Privacy Against Inference Attacks in Vertical Federated Learning
- Title(参考訳): 垂直連合学習における推論攻撃に対するプライバシ
- Authors: Borzoo Rassouli, Morteza Varasteh and Deniz Gunduz
- Abstract要約: 垂直的フェデレーション学習(英語版)は、真のクラスラベルにアクセス可能なアクティブ・パーティが、受動的パーティーからより多くの特徴を活用して分類モデルを構築したいと考える場合に考慮される。
いくつかの推論攻撃手法が提案されており、敵、すなわちアクティブ・パーティは、敏感な情報と見なされるパッシブ・パーティの特徴を再構築することができる。
防御機構として、2つのプライバシ保護スキームが提案され、VFLがアクティブパーティにもたらすすべての利益を保ちながら、敵の再構築攻撃を悪化させる。
- 参考スコア(独自算出の注目度): 13.234975857626749
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Vertical federated learning is considered, where an active party, having
access to true class labels, wishes to build a classification model by
utilizing more features from a passive party, which has no access to the
labels, to improve the model accuracy. In the prediction phase, with logistic
regression as the classification model, several inference attack techniques are
proposed that the adversary, i.e., the active party, can employ to reconstruct
the passive party's features, regarded as sensitive information. These attacks,
which are mainly based on a classical notion of the center of a set, i.e., the
Chebyshev center, are shown to be superior to those proposed in the literature.
Moreover, several theoretical performance guarantees are provided for the
aforementioned attacks. Subsequently, we consider the minimum amount of
information that the adversary needs to fully reconstruct the passive party's
features. In particular, it is shown that when the passive party holds one
feature, and the adversary is only aware of the signs of the parameters
involved, it can perfectly reconstruct that feature when the number of
predictions is large enough. Next, as a defense mechanism, two
privacy-preserving schemes are proposed that worsen the adversary's
reconstruction attacks, while preserving the full benefits that VFL brings to
the active party. Finally, experimental results demonstrate the effectiveness
of the proposed attacks and the privacy-preserving schemes.
- Abstract(参考訳): 真のクラスラベルにアクセス可能なアクティブパーティが、ラベルにアクセスできないパッシブパーティからより多くの機能を活用して分類モデルを構築し、モデルの精度を向上したいと考える、垂直的なフェデレーション学習が検討されている。
予測段階では、ロジスティック回帰を分類モデルとして、敵、すなわちアクティブな当事者が、センシティブな情報と見なされる受動的当事者の特徴を再構築するために使用できるいくつかの推論攻撃手法が提案されている。
これらの攻撃は主に集合の中心という古典的な概念、すなわちチェビシェフ中心に基づいており、文献で提案されたものよりも優れていることが示されている。
さらに、上記の攻撃に対して、いくつかの理論的性能保証が提供される。
その後、敵が受動者の特徴を完全に再構築する必要がある最小限の情報量を考える。
特に、受動的当事者が1つの特徴を持ち、相手が関連するパラメータの兆候のみを認識している場合、予測数が十分大きい場合に、その特徴を完全に再構築できることが示されている。
次に、防御機構として、2つのプライバシ保護スキームが提案され、敵の再構築攻撃を悪化させ、VFLがアクティブな党にもたらすすべての利益を保護した。
最後に,提案手法とプライバシ保護方式の有効性を実験的に検証した。
関連論文リスト
- Feature Separation and Recalibration for Adversarial Robustness [18.975320671203132]
本稿では,特徴分離と再校正という手法を提案する。
分離と再校正を通じて、より堅牢な機能マップのために、悪意のある非不正なアクティベーションを再校正する。
これにより、計算オーバーヘッドが小さいため、既存の敵の訓練手法の堅牢性は最大8.57%向上する。
論文 参考訳(メタデータ) (2023-03-24T07:43:57Z) - Privacy Against Agnostic Inference Attack in Vertical Federated Learning [7.1577508803778045]
2つのパーティが機械学習(ML)モデルのトレーニングに協力します。
ある当事者は、トレーニングフェーズでサンプルの真理ラベルを持っている。
もう1つはパッシブパーティと呼ばれ、これらのサンプルに対応する機能セットのみを共有している。
論文 参考訳(メタデータ) (2023-02-10T23:19:30Z) - Purifier: Defending Data Inference Attacks via Transforming Confidence
Scores [27.330482508047428]
そこで本研究では,PURIFIER(PURIFIER)を用いたメンバシップ推論攻撃に対する防御手法を提案する。
PURIFIERはメンバーシップ推論攻撃を高い効率と効率で防御する。
PURIFIERは、敵のモデル反転攻撃や属性推論攻撃の防御にも有効である。
論文 参考訳(メタデータ) (2022-12-01T16:09:50Z) - Feature Reconstruction Attacks and Countermeasures of DNN training in
Vertical Federated Learning [39.85691324350159]
統合学習(FL)は、サイロ化されたデータに対する安全な協調トレーニングを促進するために、組織の中で、その垂直な形で、ますます多くデプロイされている。
VFLの採用が増加しているにもかかわらず、アクティブパーティが受動的パーティから特徴データを抽出できるかどうか、またどのようにして機能データを抽出できるかは、ほとんど不明である。
本稿では,VFLにおけるDNNトレーニングの特徴的セキュリティ問題について検討する。
論文 参考訳(メタデータ) (2022-10-13T06:23:47Z) - A Unified Evaluation of Textual Backdoor Learning: Frameworks and
Benchmarks [72.7373468905418]
我々は,テキストバックドア学習の実装と評価を促進するオープンソースツールキットOpenBackdoorを開発した。
また,単純なクラスタリングに基づく防御ベースラインであるCUBEを提案する。
論文 参考訳(メタデータ) (2022-06-17T02:29:23Z) - Towards A Conceptually Simple Defensive Approach for Few-shot
classifiers Against Adversarial Support Samples [107.38834819682315]
本研究は,数発の分類器を敵攻撃から守るための概念的簡便なアプローチについて検討する。
本稿では,自己相似性とフィルタリングの概念を用いた簡易な攻撃非依存検出法を提案する。
ミニイメージネット(MI)とCUBデータセットの攻撃検出性能は良好である。
論文 参考訳(メタデータ) (2021-10-24T05:46:03Z) - Learning to Separate Clusters of Adversarial Representations for Robust
Adversarial Detection [50.03939695025513]
本稿では,最近導入された非破壊的特徴を動機とした新しい確率的対向検出器を提案する。
本稿では,非ロバスト特徴を逆例の共通性と考え,その性質に対応する表現空間におけるクラスターの探索が可能であることを推定する。
このアイデアは、別のクラスタ内の逆表現の確率推定分布を導出し、その分布を確率に基づく逆検出器として活用する。
論文 参考訳(メタデータ) (2020-12-07T07:21:18Z) - Sampling Attacks: Amplification of Membership Inference Attacks by
Repeated Queries [74.59376038272661]
本手法は,他の標準メンバーシップ相手と異なり,被害者モデルのスコアにアクセスできないような厳格な制限の下で動作可能な,新しいメンバーシップ推論手法であるサンプリングアタックを導入する。
ラベルのみを公開している被害者モデルでは,攻撃のサンプリングが引き続き可能であり,攻撃者はその性能の最大100%を回復できることを示す。
防衛においては,被害者モデルのトレーニング中の勾配摂動と予測時の出力摂動の形式で差分プライバシーを選択する。
論文 参考訳(メタデータ) (2020-09-01T12:54:54Z) - Revisiting Membership Inference Under Realistic Assumptions [87.13552321332988]
従来研究でよく用いられていた仮定のいくつかが緩和された環境での会員推定について検討する。
この設定は、研究者が通常考慮するバランスのとれた事前設定よりも現実的である。
我々は、トレーニングセットメンバーに対応する入力が損失関数の局所最小値に近いという直感に基づく新しい推論攻撃を開発する。
論文 参考訳(メタデータ) (2020-05-21T20:17:42Z) - Reliable evaluation of adversarial robustness with an ensemble of
diverse parameter-free attacks [65.20660287833537]
本稿では,最適段差の大きさと目的関数の問題による障害を克服するPGD攻撃の2つの拡張を提案する。
そして、我々の新しい攻撃と2つの補完的な既存の攻撃を組み合わせることで、パラメータフリーで、計算に手頃な価格で、ユーザに依存しない攻撃のアンサンブルを形成し、敵の堅牢性をテストする。
論文 参考訳(メタデータ) (2020-03-03T18:15:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。