論文の概要: Robust and IP-Protecting Vertical Federated Learning against Unexpected
Quitting of Parties
- arxiv url: http://arxiv.org/abs/2303.18178v1
- Date: Tue, 28 Mar 2023 19:58:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-09 05:54:54.840165
- Title: Robust and IP-Protecting Vertical Federated Learning against Unexpected
Quitting of Parties
- Title(参考訳): 予期せぬパーティのクイットに対する学習のロバスト化とIP保護
- Authors: Jingwei Sun, Zhixu Du, Anna Dai, Saleh Baghersalimi, Alireza
Amirshahi, David Atienza, Yiran Chen
- Abstract要約: 垂直連合学習(VFL)は、ラベル付き機能を所有するサービスプロバイダ(すなわち、アクティブパーティ)が、補助的機能を持つ受動的関係者と協力してモデルパフォーマンスを向上させることを可能にする。
既存のVFLアプローチには、2つの大きな脆弱性がある。
我々は、VFLモデルの受動的離脱に対するロバスト性を改善するためのtextbfParty-wise Dropout と、デプロイメントフェーズにおけるアクティブパーティのIPを保護する textbfDIMIP と呼ばれる防御方法を提案する。
- 参考スコア(独自算出の注目度): 29.229942556038676
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Vertical federated learning (VFL) enables a service provider (i.e., active
party) who owns labeled features to collaborate with passive parties who
possess auxiliary features to improve model performance. Existing VFL
approaches, however, have two major vulnerabilities when passive parties
unexpectedly quit in the deployment phase of VFL - severe performance
degradation and intellectual property (IP) leakage of the active party's
labels. In this paper, we propose \textbf{Party-wise Dropout} to improve the
VFL model's robustness against the unexpected exit of passive parties and a
defense method called \textbf{DIMIP} to protect the active party's IP in the
deployment phase. We evaluate our proposed methods on multiple datasets against
different inference attacks. The results show that Party-wise Dropout
effectively maintains model performance after the passive party quits, and
DIMIP successfully disguises label information from the passive party's feature
extractor, thereby mitigating IP leakage.
- Abstract(参考訳): 垂直連合学習(VFL)は、ラベル付き機能を所有するサービスプロバイダ(すなわち、アクティブパーティ)が、補助的機能を持つ受動的関係者と協力してモデルパフォーマンスを向上させることを可能にする。
しかしながら、既存のVFLアプローチでは、VFLの展開フェーズにおいて、パッシブパーティが予期せず停止したときの2つの大きな脆弱性がある。
本稿では,VFLモデルにおける受動的離脱に対するロバスト性向上のための「textbf{Party-wise Dropout}」と,展開フェーズにおけるアクティブパーティのIPを保護する「textbf{DIMIP}」という防衛手法を提案する。
提案手法を複数のデータセット上で異なる推論攻撃に対して評価する。
その結果,パッシブパーティが終了しても,パーティ毎のドロップアウトはモデル性能を効果的に維持でき,dimipはパッシブパーティの特徴抽出器からラベル情報を偽装してipリークを軽減できた。
関連論文リスト
- Incentives in Private Collaborative Machine Learning [56.84263918489519]
コラボレーション型機械学習は、複数のパーティのデータに基づいてモデルをトレーニングする。
インセンティブとして差分プライバシー(DP)を導入する。
合成および実世界のデータセットに対するアプローチの有効性と実用性を実証的に実証した。
論文 参考訳(メタデータ) (2024-04-02T06:28:22Z) - A Bargaining-based Approach for Feature Trading in Vertical Federated
Learning [54.51890573369637]
本稿では,垂直的フェデレートラーニング(VFL)において,経済的に効率的な取引を促進するための交渉型特徴取引手法を提案する。
当社のモデルでは,収益ベース最適化の目的を考慮し,パフォーマンスゲインベースの価格設定を取り入れている。
論文 参考訳(メタデータ) (2024-02-23T10:21:07Z) - Incentive Allocation in Vertical Federated Learning Based on Bankruptcy
Problem [0.0]
垂直連合学習(VFL)は、異なるパーティ間で垂直に分割されたプライベートデータを使用して、機械学習モデルを協調的にトレーニングするための有望なアプローチである。
本稿では,VFLプロセスへの貢献に基づいて,活動政党による受動的政党へのインセンティブ付与の問題に焦点をあてる。
我々は、この問題を、倒産問題として知られるヌクレロスゲーム理論の変種として定式化し、タルムードの除算則を用いて解決する。
論文 参考訳(メタデータ) (2023-07-07T11:08:18Z) - Privacy Against Agnostic Inference Attack in Vertical Federated Learning [7.1577508803778045]
2つのパーティが機械学習(ML)モデルのトレーニングに協力します。
ある当事者は、トレーニングフェーズでサンプルの真理ラベルを持っている。
もう1つはパッシブパーティと呼ばれ、これらのサンプルに対応する機能セットのみを共有している。
論文 参考訳(メタデータ) (2023-02-10T23:19:30Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - Feature Reconstruction Attacks and Countermeasures of DNN training in
Vertical Federated Learning [39.85691324350159]
統合学習(FL)は、サイロ化されたデータに対する安全な協調トレーニングを促進するために、組織の中で、その垂直な形で、ますます多くデプロイされている。
VFLの採用が増加しているにもかかわらず、アクティブパーティが受動的パーティから特徴データを抽出できるかどうか、またどのようにして機能データを抽出できるかは、ほとんど不明である。
本稿では,VFLにおけるDNNトレーニングの特徴的セキュリティ問題について検討する。
論文 参考訳(メタデータ) (2022-10-13T06:23:47Z) - Privacy Against Inference Attacks in Vertical Federated Learning [13.234975857626749]
垂直的フェデレーション学習(英語版)は、真のクラスラベルにアクセス可能なアクティブ・パーティが、受動的パーティーからより多くの特徴を活用して分類モデルを構築したいと考える場合に考慮される。
いくつかの推論攻撃手法が提案されており、敵、すなわちアクティブ・パーティは、敏感な情報と見なされるパッシブ・パーティの特徴を再構築することができる。
防御機構として、2つのプライバシ保護スキームが提案され、VFLがアクティブパーティにもたらすすべての利益を保ちながら、敵の再構築攻撃を悪化させる。
論文 参考訳(メタデータ) (2022-07-24T18:33:52Z) - Defending Label Inference and Backdoor Attacks in Vertical Federated
Learning [11.319694528089773]
共同学習では、好奇心が強いパリティは正直かもしれないが、推論攻撃を通じて他人の個人データを推測しようとしている。
本稿では,サンプルごとの勾配から,プライベートラベルを再構築可能であることを示す。
本稿では、オートエンコーダとエントロピー正規化に基づく、混乱型オートエンコーダ(CoAE)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2021-12-10T09:32:09Z) - Exploiting Submodular Value Functions For Scaling Up Active Perception [60.81276437097671]
アクティブな知覚タスクでは、エージェントは1つ以上の隠れ変数の不確実性を減少させる感覚行動を選択することを目的としている。
部分的に観測可能なマルコフ決定過程(POMDP)は、そのような問題に対する自然なモデルを提供する。
エージェントが利用できるセンサーの数が増えるにつれて、POMDP計画の計算コストは指数関数的に増加する。
論文 参考訳(メタデータ) (2020-09-21T09:11:36Z) - Sampling Attacks: Amplification of Membership Inference Attacks by
Repeated Queries [74.59376038272661]
本手法は,他の標準メンバーシップ相手と異なり,被害者モデルのスコアにアクセスできないような厳格な制限の下で動作可能な,新しいメンバーシップ推論手法であるサンプリングアタックを導入する。
ラベルのみを公開している被害者モデルでは,攻撃のサンプリングが引き続き可能であり,攻撃者はその性能の最大100%を回復できることを示す。
防衛においては,被害者モデルのトレーニング中の勾配摂動と予測時の出力摂動の形式で差分プライバシーを選択する。
論文 参考訳(メタデータ) (2020-09-01T12:54:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。