論文の概要: Privacy-Preserving Federated Learning on Partitioned Attributes
- arxiv url: http://arxiv.org/abs/2104.14383v1
- Date: Thu, 29 Apr 2021 14:49:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-30 18:37:39.971745
- Title: Privacy-Preserving Federated Learning on Partitioned Attributes
- Title(参考訳): 分割属性に基づくプライバシ保護フェデレーション学習
- Authors: Shuang Zhang, Liyao Xiang, Xi Yu, Pengzhi Chu, Yingqi Chen, Chen Cen,
Li Wang
- Abstract要約: フェデレーション学習は、ローカルデータやモデルを公開することなく、協調的なトレーニングを促進する。
ローカルモデルをチューニングし、プライバシー保護された中間表現をリリースする逆学習ベースの手順を紹介します。
精度低下を緩和するために,前方後方分割アルゴリズムに基づく防御法を提案する。
- 参考スコア(独自算出の注目度): 6.661716208346423
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Real-world data is usually segmented by attributes and distributed across
different parties. Federated learning empowers collaborative training without
exposing local data or models. As we demonstrate through designed attacks, even
with a small proportion of corrupted data, an adversary can accurately infer
the input attributes. We introduce an adversarial learning based procedure
which tunes a local model to release privacy-preserving intermediate
representations. To alleviate the accuracy decline, we propose a defense method
based on the forward-backward splitting algorithm, which respectively deals
with the accuracy loss and privacy loss in the forward and backward gradient
descent steps, achieving the two objectives simultaneously. Extensive
experiments on a variety of datasets have shown that our defense significantly
mitigates privacy leakage with negligible impact on the federated learning
task.
- Abstract(参考訳): 現実世界のデータは通常属性によってセグメント化され、異なるパーティに分散される。
フェデレーション学習は、ローカルデータやモデルを公開することなく、協調的なトレーニングを促進する。
設計した攻撃を通じて示すように、少数の破損したデータであっても、敵は入力属性を正確に推測することができる。
本稿では,プライバシを保存する中間表現をリリースするために,ローカルモデルをチューニングする逆学習に基づく手順を提案する。
そこで本研究では,前傾降下ステップと後傾降下ステップの精度損失とプライバシ損失をそれぞれ処理し,同時に2つの目的を達成する前方後方分割アルゴリズムに基づく防御手法を提案する。
さまざまなデータセットに対する大規模な実験により、我々の防衛は、フェデレートされた学習タスクに無視できない影響でプライバシー漏洩を著しく軽減することが示された。
関連論文リスト
- Pseudo-Probability Unlearning: Towards Efficient and Privacy-Preserving Machine Unlearning [59.29849532966454]
本稿では,PseudoProbability Unlearning (PPU)を提案する。
提案手法は,最先端の手法に比べて20%以上の誤りを忘れる改善を実現している。
論文 参考訳(メタデータ) (2024-11-04T21:27:06Z) - Analyzing Inference Privacy Risks Through Gradients in Machine Learning [17.2657358645072]
本稿では,属性,プロパティ,配布,ユーザ開示など幅広い攻撃を対象とするゲームベースの統合フレームワークを提案する。
本結果は,分散学習における推論攻撃に対するプライバシを実現するために,データ集約のみを頼りにすることの有効性を示した。
論文 参考訳(メタデータ) (2024-08-29T21:21:53Z) - Learning to Unlearn: Instance-wise Unlearning for Pre-trained
Classifiers [71.70205894168039]
そこでは、事前訓練されたモデルからインスタンスのセットに関する情報を削除することを目標としています。
本稿では,1)表現レベルでの忘れを克服するために,敵の例を活用すること,2)不必要な情報を伝播するネットワークパラメータをピンポイントする重み付け指標を活用すること,の2つの方法を提案する。
論文 参考訳(メタデータ) (2023-01-27T07:53:50Z) - Truth Serum: Poisoning Machine Learning Models to Reveal Their Secrets [53.866927712193416]
トレーニングデータセットを有害にすることができる敵が、このデータセットでトレーニングされたモデルに、他の当事者のプライベート詳細を漏洩させる可能性があることを示す。
私たちの攻撃は、メンバーシップ推論、属性推論、データ抽出に効果的です。
私たちの結果は、機械学習のためのマルチパーティプロトコルにおける暗号化プライバシ保証の関連性に疑問を投げかけました。
論文 参考訳(メタデータ) (2022-03-31T18:06:28Z) - Learning Bias-Invariant Representation by Cross-Sample Mutual
Information Minimization [77.8735802150511]
対象タスクが誤用したバイアス情報を除去するために,クロスサンプル対逆脱バイアス法(CSAD)を提案する。
相関測定は, 対向的偏り評価において重要な役割を担い, クロスサンプル型相互情報推定器によって行われる。
我々は,提案手法の最先端手法に対する利点を検証するために,公開データセットの徹底的な実験を行った。
論文 参考訳(メタデータ) (2021-08-11T21:17:02Z) - Curse or Redemption? How Data Heterogeneity Affects the Robustness of
Federated Learning [51.15273664903583]
データの不均一性は、フェデレートラーニングにおける重要な特徴の1つとして認識されているが、しばしば敵対的攻撃に対する堅牢性のレンズで見過ごされる。
本稿では, 複合学習におけるバックドア攻撃の影響を, 総合的な実験を通じて評価し, 理解することを目的とした。
論文 参考訳(メタデータ) (2021-02-01T06:06:21Z) - Sampling Attacks: Amplification of Membership Inference Attacks by
Repeated Queries [74.59376038272661]
本手法は,他の標準メンバーシップ相手と異なり,被害者モデルのスコアにアクセスできないような厳格な制限の下で動作可能な,新しいメンバーシップ推論手法であるサンプリングアタックを導入する。
ラベルのみを公開している被害者モデルでは,攻撃のサンプリングが引き続き可能であり,攻撃者はその性能の最大100%を回復できることを示す。
防衛においては,被害者モデルのトレーニング中の勾配摂動と予測時の出力摂動の形式で差分プライバシーを選択する。
論文 参考訳(メタデータ) (2020-09-01T12:54:54Z) - Sharing Models or Coresets: A Study based on Membership Inference Attack [17.562474629669513]
分散機械学習は、すべてのデータを集中した場所に集めることなく、分散データに基づいてグローバルモデルをトレーニングすることを目的としている。
ローカルモデル(フェデレーション学習)の収集と集約、代表データ要約(コアセット)の収集とトレーニングの2つのアプローチが提案されている。
本実験は,各アプローチの精度・プライバシ・コストのトレードオフを定量化し,モデルトレーニングプロセスの設計の指針となる非自明な比較を明らかにする。
論文 参考訳(メタデータ) (2020-07-06T18:06:53Z) - SPEED: Secure, PrivatE, and Efficient Deep learning [2.283665431721732]
私たちは、強力なプライバシー制約に対処できるディープラーニングフレームワークを導入します。
協調学習、差分プライバシー、同型暗号化に基づいて、提案手法は最先端技術に進化する。
論文 参考訳(メタデータ) (2020-06-16T19:31:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。