論文の概要: Privacy Against Agnostic Inference Attacks in Vertical Federated Learning
- arxiv url: http://arxiv.org/abs/2302.05545v3
- Date: Tue, 15 Jul 2025 12:42:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-16 19:46:02.62503
- Title: Privacy Against Agnostic Inference Attacks in Vertical Federated Learning
- Title(参考訳): 垂直的フェデレーション学習におけるアグノスティック推論攻撃に対するプライバシ
- Authors: Morteza Varasteh,
- Abstract要約: 2つのパーティが機械学習(ML)モデルのトレーニングに協力します。
ある当事者は、トレーニングフェーズでサンプルの真理ラベルを持っている。
もう1つはパッシブパーティと呼ばれ、これらのサンプルに対応する機能セットのみを共有している。
- 参考スコア(独自算出の注目度): 3.3903227320938436
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A novel form of inference attack in vertical federated learning (VFL) is proposed, where two parties collaborate in training a machine learning (ML) model. Logistic regression is considered for the VFL model. One party, referred to as the active party, possesses the ground truth labels of the samples in the training phase, while the other, referred to as the passive party, only shares a separate set of features corresponding to these samples. It is shown that the active party can carry out inference attacks on both training and prediction phase samples by acquiring an ML model independently trained on the training samples available to them. This type of inference attack does not require the active party to be aware of the score of a specific sample, hence it is referred to as an agnostic inference attack. It is shown that utilizing the observed confidence scores during the prediction phase, before the time of the attack, can improve the performance of the active party's autonomous ML model, and thus improve the quality of the agnostic inference attack. As a countermeasure, privacy-preserving schemes (PPSs) are proposed. While the proposed schemes preserve the utility of the VFL model, they systematically distort the VFL parameters corresponding to the passive party's features. The level of the distortion imposed on the passive party's parameters is adjustable, giving rise to a trade-off between privacy of the passive party and interpretabiliy of the VFL outcomes by the active party. The distortion level of the passive party's parameters could be chosen carefully according to the privacy and interpretabiliy concerns of the passive and active parties, respectively, with the hope of keeping both parties (partially) satisfied. Finally, experimental results demonstrate the effectiveness of the proposed attack and the PPSs.
- Abstract(参考訳): 縦型フェデレーション学習(VFL)における推論攻撃の新たな形態を提案し,機械学習(ML)モデルのトレーニングに協力する。
VFLモデルではロジスティック回帰が考慮されている。
1つのパーティは、アクティブパーティと呼ばれ、トレーニングフェーズでサンプルの基底的な真理ラベルを持ち、もう1つのパーティは受動的パーティと呼ばれ、これらのサンプルに対応する機能セットのみを共有している。
その結果、アクティブパーティは、トレーニングサンプルに基づいて個別にトレーニングされたMLモデルを取得することにより、トレーニングと予測フェーズの両方のサンプルに対して推論攻撃を行うことができることがわかった。
このタイプの推論攻撃は、特定のサンプルのスコアを認識するためにアクティブなパーティを必要としないため、非依存的推論攻撃(agnostic inference attack)と呼ばれる。
その結果, 予測段階で観測された信頼スコアを利用することで, アクティブパーティの自律MLモデルの性能を向上し, 不可視的推論攻撃の質を向上させることができることがわかった。
対策としてプライバシ保護スキーム(PPS)を提案する。
提案手法は,VFLモデルの有用性を保ちながら,受動者の特徴に対応するVFLパラメータを体系的に歪曲する。
受動的政党のパラメータに課される歪みのレベルは調整可能であり、受動的政党のプライバシーと活動政党によるVFL結果の解釈との間にトレードオフをもたらす。
受動的党のパラメータの歪みレベルは、受動的党と能動的党のプライバシーと相互に関係し、双方を(部分的に)満足させることを期待して慎重に選択できる。
最後に,提案した攻撃とPSの有効性を実験的に検証した。
関連論文リスト
- Preliminary Investigation into Uncertainty-Aware Attack Stage Classification [81.28215542218724]
この研究は、不確実性の下での攻撃段階推論の問題に対処する。
Evidential Deep Learning (EDL) に基づく分類手法を提案し、ディリクレ分布のパラメータを可能な段階に出力することで予測の不確実性をモデル化する。
シミュレーション環境における予備実験により,提案モデルが精度良く攻撃の段階を推定できることが実証された。
論文 参考訳(メタデータ) (2025-08-01T06:58:00Z) - Cascading and Proxy Membership Inference Attacks [17.7796850086875]
メンバーシップ推論攻撃(MIA)は、トレーニングされた機械学習モデルがトレーニングデータについてどれだけの頻度で明らかにするかを評価する。
我々は,既存のMIAを適応型か非適応型に分類する。
クエリインスタンスにアクセスした後、相手がシャドーモデルを訓練できる適応的な環境では、カスケーディングメンバーシップ推論攻撃(CMIA)と呼ばれる攻撃非依存のフレームワークを提案する。
非適応的な環境では、相手がメンバーシップクエリを得る前にシャドウモデルの訓練に制限される場合、プロキシメンバーシップ推論攻撃(PMIA)を導入する。
論文 参考訳(メタデータ) (2025-07-29T00:46:09Z) - A Bargaining-based Approach for Feature Trading in Vertical Federated
Learning [54.51890573369637]
本稿では,垂直的フェデレートラーニング(VFL)において,経済的に効率的な取引を促進するための交渉型特徴取引手法を提案する。
当社のモデルでは,収益ベース最適化の目的を考慮し,パフォーマンスゲインベースの価格設定を取り入れている。
論文 参考訳(メタデータ) (2024-02-23T10:21:07Z) - SA-Attack: Improving Adversarial Transferability of Vision-Language
Pre-training Models via Self-Augmentation [56.622250514119294]
ホワイトボックスの敵攻撃とは対照的に、転送攻撃は現実世界のシナリオをより反映している。
本稿では,SA-Attackと呼ばれる自己拡張型転送攻撃手法を提案する。
論文 参考訳(メタデータ) (2023-12-08T09:08:50Z) - Incentive Allocation in Vertical Federated Learning Based on Bankruptcy
Problem [0.0]
垂直連合学習(VFL)は、異なるパーティ間で垂直に分割されたプライベートデータを使用して、機械学習モデルを協調的にトレーニングするための有望なアプローチである。
本稿では,VFLプロセスへの貢献に基づいて,活動政党による受動的政党へのインセンティブ付与の問題に焦点をあてる。
我々は、この問題を、倒産問題として知られるヌクレロスゲーム理論の変種として定式化し、タルムードの除算則を用いて解決する。
論文 参考訳(メタデータ) (2023-07-07T11:08:18Z) - Robust and IP-Protecting Vertical Federated Learning against Unexpected
Quitting of Parties [29.229942556038676]
垂直連合学習(VFL)は、ラベル付き機能を所有するサービスプロバイダ(すなわち、アクティブパーティ)が、補助的機能を持つ受動的関係者と協力してモデルパフォーマンスを向上させることを可能にする。
既存のVFLアプローチには、2つの大きな脆弱性がある。
我々は、VFLモデルの受動的離脱に対するロバスト性を改善するためのtextbfParty-wise Dropout と、デプロイメントフェーズにおけるアクティブパーティのIPを保護する textbfDIMIP と呼ばれる防御方法を提案する。
論文 参考訳(メタデータ) (2023-03-28T19:58:28Z) - Purifier: Defending Data Inference Attacks via Transforming Confidence
Scores [27.330482508047428]
そこで本研究では,PURIFIER(PURIFIER)を用いたメンバシップ推論攻撃に対する防御手法を提案する。
PURIFIERはメンバーシップ推論攻撃を高い効率と効率で防御する。
PURIFIERは、敵のモデル反転攻撃や属性推論攻撃の防御にも有効である。
論文 参考訳(メタデータ) (2022-12-01T16:09:50Z) - Feature Reconstruction Attacks and Countermeasures of DNN training in
Vertical Federated Learning [39.85691324350159]
統合学習(FL)は、サイロ化されたデータに対する安全な協調トレーニングを促進するために、組織の中で、その垂直な形で、ますます多くデプロイされている。
VFLの採用が増加しているにもかかわらず、アクティブパーティが受動的パーティから特徴データを抽出できるかどうか、またどのようにして機能データを抽出できるかは、ほとんど不明である。
本稿では,VFLにおけるDNNトレーニングの特徴的セキュリティ問題について検討する。
論文 参考訳(メタデータ) (2022-10-13T06:23:47Z) - Privacy Against Inference Attacks in Vertical Federated Learning [13.234975857626749]
垂直的フェデレーション学習(英語版)は、真のクラスラベルにアクセス可能なアクティブ・パーティが、受動的パーティーからより多くの特徴を活用して分類モデルを構築したいと考える場合に考慮される。
いくつかの推論攻撃手法が提案されており、敵、すなわちアクティブ・パーティは、敏感な情報と見なされるパッシブ・パーティの特徴を再構築することができる。
防御機構として、2つのプライバシ保護スキームが提案され、VFLがアクティブパーティにもたらすすべての利益を保ちながら、敵の再構築攻撃を悪化させる。
論文 参考訳(メタデータ) (2022-07-24T18:33:52Z) - Federated Test-Time Adaptive Face Presentation Attack Detection with
Dual-Phase Privacy Preservation [100.69458267888962]
顔提示攻撃検出(fPAD)は、現代の顔認識パイプラインにおいて重要な役割を果たす。
法的およびプライバシー上の問題により、トレーニングデータ(実際の顔画像と偽画像)は、異なるデータソース間で直接共有することはできない。
本稿では,二相プライバシー保護フレームワークを用いたフェデレーションテスト時間適応顔提示検出を提案する。
論文 参考訳(メタデータ) (2021-10-25T02:51:05Z) - Feature Inference Attack on Model Predictions in Vertical Federated
Learning [26.7517556631796]
フェデレーテッド・ラーニング(FL)は、複数の組織が互いにプライベートなデータを公開せずに協力し合うための新興パラダイムである。
本稿では,縦型FLのモデル予測段階における潜在的なプライバシー漏洩について,いくつかの特徴推論攻撃手法を提案する。
論文 参考訳(メタデータ) (2020-10-20T09:38:49Z) - Sampling Attacks: Amplification of Membership Inference Attacks by
Repeated Queries [74.59376038272661]
本手法は,他の標準メンバーシップ相手と異なり,被害者モデルのスコアにアクセスできないような厳格な制限の下で動作可能な,新しいメンバーシップ推論手法であるサンプリングアタックを導入する。
ラベルのみを公開している被害者モデルでは,攻撃のサンプリングが引き続き可能であり,攻撃者はその性能の最大100%を回復できることを示す。
防衛においては,被害者モデルのトレーニング中の勾配摂動と予測時の出力摂動の形式で差分プライバシーを選択する。
論文 参考訳(メタデータ) (2020-09-01T12:54:54Z) - Adaptive Adversarial Logits Pairing [65.51670200266913]
逆行訓練ソリューションであるAdversarial Logits Pairing (ALP)は、脆弱なものに比べて、高い貢献度を少なくする傾向にある。
これらの観測により,適応型対数対数対数対数対数対数法 (AALP) を設計し,ALPのトレーニングプロセスとトレーニングターゲットを変更する。
AALPは適応的な機能最適化モジュールと Guided Dropout から構成されており、より少ない高コントリビューション機能を体系的に追求する。
論文 参考訳(メタデータ) (2020-05-25T03:12:20Z) - Revisiting Membership Inference Under Realistic Assumptions [87.13552321332988]
従来研究でよく用いられていた仮定のいくつかが緩和された環境での会員推定について検討する。
この設定は、研究者が通常考慮するバランスのとれた事前設定よりも現実的である。
我々は、トレーニングセットメンバーに対応する入力が損失関数の局所最小値に近いという直感に基づく新しい推論攻撃を開発する。
論文 参考訳(メタデータ) (2020-05-21T20:17:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。