論文の概要: Privacy Against Agnostic Inference Attack in Vertical Federated Learning
- arxiv url: http://arxiv.org/abs/2302.05545v1
- Date: Fri, 10 Feb 2023 23:19:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-14 19:57:13.516323
- Title: Privacy Against Agnostic Inference Attack in Vertical Federated Learning
- Title(参考訳): 垂直的フェデレーション学習における匿名推論攻撃に対するプライバシ
- Authors: Morteza Varasteh
- Abstract要約: 2つのパーティが機械学習(ML)モデルのトレーニングに協力します。
ある当事者は、トレーニングフェーズでサンプルの真理ラベルを持っている。
もう1つはパッシブパーティと呼ばれ、これらのサンプルに対応する機能セットのみを共有している。
- 参考スコア(独自算出の注目度): 7.1577508803778045
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A novel form of inference attack in vertical federated learning (VFL) is
proposed, where two parties collaborate in training a machine learning (ML)
model. Logistic regression is considered for the VFL model. One party, referred
to as the active party, possesses the ground truth labels of the samples in the
training phase, while the other, referred to as the passive party, only shares
a separate set of features corresponding to these samples. It is shown that the
active party can carry out inference attacks on both training and prediction
phase samples by acquiring an ML model independently trained on the training
samples available to them. This type of inference attack does not require the
active party to be aware of the score of a specific sample, hence it is
referred to as an agnostic inference attack. It is shown that utilizing the
observed confidence scores during the prediction phase, before the time of the
attack, can improve the performance of the active party's autonomous model, and
thus improve the quality of the agnostic inference attack. As a countermeasure,
privacy-preserving schemes (PPSs) are proposed. While the proposed schemes
preserve the utility of the VFL model, they systematically distort the VFL
parameters corresponding to the passive party's features. The level of the
distortion imposed on the passive party's parameters is adjustable, giving rise
to a trade-off between privacy of the passive party and interpretabiliy of the
VFL outcomes by the active party. The distortion level of the passive party's
parameters could be chosen carefully according to the privacy and
interpretabiliy concerns of the passive and active parties, respectively, with
the hope of keeping both parties (partially) satisfied. Finally, experimental
results demonstrate the effectiveness of the proposed attack and the PPSs.
- Abstract(参考訳): 縦型フェデレーション学習(VFL)における推論攻撃の新たな形態を提案し,機械学習(ML)モデルのトレーニングに協力する。
ロジスティック回帰はvflモデルにおいて考慮される。
1つのパーティは、アクティブパーティと呼ばれ、トレーニングフェーズでサンプルの基底的な真理ラベルを持ち、もう1つのパーティは受動的パーティと呼ばれ、これらのサンプルに対応する機能セットのみを共有している。
その結果、アクティブパーティは、トレーニングサンプルに基づいて個別にトレーニングされたMLモデルを取得することにより、トレーニングと予測フェーズの両方のサンプルに対して推論攻撃を行うことができることがわかった。
このタイプの推論攻撃は、特定のサンプルのスコアを認識するためにアクティブなパーティを必要としないため、非依存的推論攻撃(agnostic inference attack)と呼ばれる。
その結果,攻撃前の予測段階で観測された信頼度スコアを活用すれば,活動相手の自律的モデルの性能が向上し,非依存的推論攻撃の品質が向上することが示された。
対策としてプライバシ保護スキーム(PPS)を提案する。
提案手法は,VFLモデルの有用性を保ちながら,受動者の特徴に対応するVFLパラメータを体系的に歪曲する。
受動的政党のパラメータに課される歪みのレベルは調整可能であり、受動的政党のプライバシーと活動政党によるVFL結果の解釈との間にトレードオフをもたらす。
受動的当事者のパラメータの歪みレベルは、受動的当事者のプライバシーと解釈上の懸念に応じて慎重に選択することができ、両者(部分的に)を満足させることを期待している。
最後に,提案手法とppssの有効性を実験的に検証した。
関連論文リスト
- A Bargaining-based Approach for Feature Trading in Vertical Federated
Learning [54.51890573369637]
本稿では,垂直的フェデレートラーニング(VFL)において,経済的に効率的な取引を促進するための交渉型特徴取引手法を提案する。
当社のモデルでは,収益ベース最適化の目的を考慮し,パフォーマンスゲインベースの価格設定を取り入れている。
論文 参考訳(メタデータ) (2024-02-23T10:21:07Z) - SA-Attack: Improving Adversarial Transferability of Vision-Language
Pre-training Models via Self-Augmentation [56.622250514119294]
ホワイトボックスの敵攻撃とは対照的に、転送攻撃は現実世界のシナリオをより反映している。
本稿では,SA-Attackと呼ばれる自己拡張型転送攻撃手法を提案する。
論文 参考訳(メタデータ) (2023-12-08T09:08:50Z) - Incentive Allocation in Vertical Federated Learning Based on Bankruptcy
Problem [0.0]
垂直連合学習(VFL)は、異なるパーティ間で垂直に分割されたプライベートデータを使用して、機械学習モデルを協調的にトレーニングするための有望なアプローチである。
本稿では,VFLプロセスへの貢献に基づいて,活動政党による受動的政党へのインセンティブ付与の問題に焦点をあてる。
我々は、この問題を、倒産問題として知られるヌクレロスゲーム理論の変種として定式化し、タルムードの除算則を用いて解決する。
論文 参考訳(メタデータ) (2023-07-07T11:08:18Z) - Robust and IP-Protecting Vertical Federated Learning against Unexpected
Quitting of Parties [29.229942556038676]
垂直連合学習(VFL)は、ラベル付き機能を所有するサービスプロバイダ(すなわち、アクティブパーティ)が、補助的機能を持つ受動的関係者と協力してモデルパフォーマンスを向上させることを可能にする。
既存のVFLアプローチには、2つの大きな脆弱性がある。
我々は、VFLモデルの受動的離脱に対するロバスト性を改善するためのtextbfParty-wise Dropout と、デプロイメントフェーズにおけるアクティブパーティのIPを保護する textbfDIMIP と呼ばれる防御方法を提案する。
論文 参考訳(メタデータ) (2023-03-28T19:58:28Z) - Purifier: Defending Data Inference Attacks via Transforming Confidence
Scores [27.330482508047428]
そこで本研究では,PURIFIER(PURIFIER)を用いたメンバシップ推論攻撃に対する防御手法を提案する。
PURIFIERはメンバーシップ推論攻撃を高い効率と効率で防御する。
PURIFIERは、敵のモデル反転攻撃や属性推論攻撃の防御にも有効である。
論文 参考訳(メタデータ) (2022-12-01T16:09:50Z) - Feature Reconstruction Attacks and Countermeasures of DNN training in
Vertical Federated Learning [39.85691324350159]
統合学習(FL)は、サイロ化されたデータに対する安全な協調トレーニングを促進するために、組織の中で、その垂直な形で、ますます多くデプロイされている。
VFLの採用が増加しているにもかかわらず、アクティブパーティが受動的パーティから特徴データを抽出できるかどうか、またどのようにして機能データを抽出できるかは、ほとんど不明である。
本稿では,VFLにおけるDNNトレーニングの特徴的セキュリティ問題について検討する。
論文 参考訳(メタデータ) (2022-10-13T06:23:47Z) - Privacy Against Inference Attacks in Vertical Federated Learning [13.234975857626749]
垂直的フェデレーション学習(英語版)は、真のクラスラベルにアクセス可能なアクティブ・パーティが、受動的パーティーからより多くの特徴を活用して分類モデルを構築したいと考える場合に考慮される。
いくつかの推論攻撃手法が提案されており、敵、すなわちアクティブ・パーティは、敏感な情報と見なされるパッシブ・パーティの特徴を再構築することができる。
防御機構として、2つのプライバシ保護スキームが提案され、VFLがアクティブパーティにもたらすすべての利益を保ちながら、敵の再構築攻撃を悪化させる。
論文 参考訳(メタデータ) (2022-07-24T18:33:52Z) - Federated Test-Time Adaptive Face Presentation Attack Detection with
Dual-Phase Privacy Preservation [100.69458267888962]
顔提示攻撃検出(fPAD)は、現代の顔認識パイプラインにおいて重要な役割を果たす。
法的およびプライバシー上の問題により、トレーニングデータ(実際の顔画像と偽画像)は、異なるデータソース間で直接共有することはできない。
本稿では,二相プライバシー保護フレームワークを用いたフェデレーションテスト時間適応顔提示検出を提案する。
論文 参考訳(メタデータ) (2021-10-25T02:51:05Z) - Sampling Attacks: Amplification of Membership Inference Attacks by
Repeated Queries [74.59376038272661]
本手法は,他の標準メンバーシップ相手と異なり,被害者モデルのスコアにアクセスできないような厳格な制限の下で動作可能な,新しいメンバーシップ推論手法であるサンプリングアタックを導入する。
ラベルのみを公開している被害者モデルでは,攻撃のサンプリングが引き続き可能であり,攻撃者はその性能の最大100%を回復できることを示す。
防衛においては,被害者モデルのトレーニング中の勾配摂動と予測時の出力摂動の形式で差分プライバシーを選択する。
論文 参考訳(メタデータ) (2020-09-01T12:54:54Z) - Adaptive Adversarial Logits Pairing [65.51670200266913]
逆行訓練ソリューションであるAdversarial Logits Pairing (ALP)は、脆弱なものに比べて、高い貢献度を少なくする傾向にある。
これらの観測により,適応型対数対数対数対数対数対数法 (AALP) を設計し,ALPのトレーニングプロセスとトレーニングターゲットを変更する。
AALPは適応的な機能最適化モジュールと Guided Dropout から構成されており、より少ない高コントリビューション機能を体系的に追求する。
論文 参考訳(メタデータ) (2020-05-25T03:12:20Z) - Revisiting Membership Inference Under Realistic Assumptions [87.13552321332988]
従来研究でよく用いられていた仮定のいくつかが緩和された環境での会員推定について検討する。
この設定は、研究者が通常考慮するバランスのとれた事前設定よりも現実的である。
我々は、トレーニングセットメンバーに対応する入力が損失関数の局所最小値に近いという直感に基づく新しい推論攻撃を開発する。
論文 参考訳(メタデータ) (2020-05-21T20:17:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。