論文の概要: Analyzing Inference Privacy Risks Through Gradients in Machine Learning
- arxiv url: http://arxiv.org/abs/2408.16913v1
- Date: Thu, 29 Aug 2024 21:21:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-02 16:58:54.765922
- Title: Analyzing Inference Privacy Risks Through Gradients in Machine Learning
- Title(参考訳): 機械学習における勾配による推論プライバシリスクの分析
- Authors: Zhuohang Li, Andrew Lowy, Jing Liu, Toshiaki Koike-Akino, Kieran Parsons, Bradley Malin, Ye Wang,
- Abstract要約: 本稿では,属性,プロパティ,配布,ユーザ開示など幅広い攻撃を対象とするゲームベースの統合フレームワークを提案する。
本結果は,分散学習における推論攻撃に対するプライバシを実現するために,データ集約のみを頼りにすることの有効性を示した。
- 参考スコア(独自算出の注目度): 17.2657358645072
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In distributed learning settings, models are iteratively updated with shared gradients computed from potentially sensitive user data. While previous work has studied various privacy risks of sharing gradients, our paper aims to provide a systematic approach to analyze private information leakage from gradients. We present a unified game-based framework that encompasses a broad range of attacks including attribute, property, distributional, and user disclosures. We investigate how different uncertainties of the adversary affect their inferential power via extensive experiments on five datasets across various data modalities. Our results demonstrate the inefficacy of solely relying on data aggregation to achieve privacy against inference attacks in distributed learning. We further evaluate five types of defenses, namely, gradient pruning, signed gradient descent, adversarial perturbations, variational information bottleneck, and differential privacy, under both static and adaptive adversary settings. We provide an information-theoretic view for analyzing the effectiveness of these defenses against inference from gradients. Finally, we introduce a method for auditing attribute inference privacy, improving the empirical estimation of worst-case privacy through crafting adversarial canary records.
- Abstract(参考訳): 分散学習設定では、モデルは、潜在的に敏感なユーザデータから計算された共有勾配で反復的に更新される。
これまでの研究では,共有勾配のプライバシーリスクについて検討してきたが,本論文は,勾配から個人情報漏洩を分析するための体系的なアプローチを提供することを目的としている。
本稿では,属性,プロパティ,配布,ユーザ開示など幅広い攻撃を対象とするゲームベースの統合フレームワークを提案する。
本研究では,様々なデータモダリティにまたがる5つのデータセットに対する広範囲な実験を通じて,逆数の不確かさが推論能力にどのように影響するかを検討する。
本結果は,分散学習における推論攻撃に対するプライバシを実現するために,データ集約のみを頼りにすることの有効性を示した。
さらに,静的および適応的双方の敵設定の下で,勾配プルーニング,符号付き勾配降下,敵対的摂動,変動情報ボトルネック,差分プライバシーの5種類の防衛効果を評価した。
勾配からの推測に対するこれらの防御の有効性を分析するための情報理論的視点を提供する。
最後に,属性推定プライバシの監査手法を導入し,逆カナリアレコードの作成による最悪のプライバシの実証的推定を改善する。
関連論文リスト
- Independent Distribution Regularization for Private Graph Embedding [55.24441467292359]
グラフ埋め込みは属性推論攻撃の影響を受けやすいため、攻撃者は学習したグラフ埋め込みからプライベートノード属性を推測することができる。
これらの懸念に対処するため、プライバシ保護グラフ埋め込み手法が登場した。
独立分散ペナルティを正規化項として支援し, PVGAE(Private Variational Graph AutoEncoders)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-08-16T13:32:43Z) - A General Framework for Auditing Differentially Private Machine Learning [27.99806936918949]
本稿では,差分プライベートな学習者によって与えられるプライバシ保証を統計的に評価する枠組みを提案する。
本研究は、微分プライベート機械学習実装のプライバシを実証的に評価する一般的な手法を開発する。
論文 参考訳(メタデータ) (2022-10-16T21:34:18Z) - Semantics-Preserved Distortion for Personal Privacy Protection in Information Management [65.08939490413037]
本稿では,意味的整合性を維持しつつテキストを歪ませる言語学的アプローチを提案する。
本稿では, 意味保存歪みの枠組みとして, 生成的アプローチと置換的アプローチの2つを提示する。
また、特定の医療情報管理シナリオにおけるプライバシ保護についても検討し、機密データの記憶を効果的に制限していることを示す。
論文 参考訳(メタデータ) (2022-01-04T04:01:05Z) - Gradient Leakage Attack Resilient Deep Learning [7.893378392969824]
勾配の漏洩攻撃は ディープラーニングで最も悪質な プライバシーの脅威の1つだ
差分プライバシーを持つディープラーニングは、差分プライバシーを保証するディープラーニングモデルを公開するためのデファクトスタンダードである。
本稿では,差分プライバシーを用いた勾配リーク耐性深層学習の代替手法について検討する。
論文 参考訳(メタデータ) (2021-12-25T03:33:02Z) - Learning Bias-Invariant Representation by Cross-Sample Mutual
Information Minimization [77.8735802150511]
対象タスクが誤用したバイアス情報を除去するために,クロスサンプル対逆脱バイアス法(CSAD)を提案する。
相関測定は, 対向的偏り評価において重要な役割を担い, クロスサンプル型相互情報推定器によって行われる。
我々は,提案手法の最先端手法に対する利点を検証するために,公開データセットの徹底的な実験を行った。
論文 参考訳(メタデータ) (2021-08-11T21:17:02Z) - Privacy-Preserving Federated Learning on Partitioned Attributes [6.661716208346423]
フェデレーション学習は、ローカルデータやモデルを公開することなく、協調的なトレーニングを促進する。
ローカルモデルをチューニングし、プライバシー保護された中間表現をリリースする逆学習ベースの手順を紹介します。
精度低下を緩和するために,前方後方分割アルゴリズムに基づく防御法を提案する。
論文 参考訳(メタデータ) (2021-04-29T14:49:14Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z) - Layer-wise Characterization of Latent Information Leakage in Federated
Learning [9.397152006395174]
フェデレートされた学習を通じてディープニューラルネットワークをトレーニングすることで、クライアントは元のデータではなく、データに基づいてトレーニングされたモデルのみを共有することができる。
従来の研究は、クライアントのプライベート情報が、メインの学習タスクとは無関係に、モデルの勾配から発見できることを実証している。
共有された更新モデルや勾配を通じて、プライベート情報の漏洩を定量化するための公式なアプローチはまだ存在しない。
論文 参考訳(メタデータ) (2020-10-17T10:49:14Z) - Differentially Private and Fair Deep Learning: A Lagrangian Dual
Approach [54.32266555843765]
本稿では,個人の機密情報のプライバシを保護するとともに,非差別的予測器の学習を可能にするモデルについて検討する。
この方法は、微分プライバシーの概念と、公正性制約を満たすニューラルネットワークの設計にラグランジアン双対性(Lagrangian duality)を用いることに依存している。
論文 参考訳(メタデータ) (2020-09-26T10:50:33Z) - Sampling Attacks: Amplification of Membership Inference Attacks by
Repeated Queries [74.59376038272661]
本手法は,他の標準メンバーシップ相手と異なり,被害者モデルのスコアにアクセスできないような厳格な制限の下で動作可能な,新しいメンバーシップ推論手法であるサンプリングアタックを導入する。
ラベルのみを公開している被害者モデルでは,攻撃のサンプリングが引き続き可能であり,攻撃者はその性能の最大100%を回復できることを示す。
防衛においては,被害者モデルのトレーニング中の勾配摂動と予測時の出力摂動の形式で差分プライバシーを選択する。
論文 参考訳(メタデータ) (2020-09-01T12:54:54Z) - SPEED: Secure, PrivatE, and Efficient Deep learning [2.283665431721732]
私たちは、強力なプライバシー制約に対処できるディープラーニングフレームワークを導入します。
協調学習、差分プライバシー、同型暗号化に基づいて、提案手法は最先端技術に進化する。
論文 参考訳(メタデータ) (2020-06-16T19:31:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。