論文の概要: The Influence of Dropout on Membership Inference in Differentially
Private Models
- arxiv url: http://arxiv.org/abs/2103.09008v1
- Date: Tue, 16 Mar 2021 12:09:51 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-17 18:30:22.763798
- Title: The Influence of Dropout on Membership Inference in Differentially
Private Models
- Title(参考訳): 微分プライベートモデルのメンバシップ推論におけるドロップアウトの影響
- Authors: Erick Galinkin
- Abstract要約: 異なるプライベートモデルは、モデルがトレーニングしたデータのプライバシ保護を目指している。
我々は、差分プライバシーのないモデルに対する会員推測攻撃を行う。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Differentially private models seek to protect the privacy of data the model
is trained on, making it an important component of model security and privacy.
At the same time, data scientists and machine learning engineers seek to use
uncertainty quantification methods to ensure models are as useful and
actionable as possible. We explore the tension between uncertainty
quantification via dropout and privacy by conducting membership inference
attacks against models with and without differential privacy. We find that
models with large dropout slightly increases a model's risk to succumbing to
membership inference attacks in all cases including in differentially private
models.
- Abstract(参考訳): プライベートモデルは、モデルがトレーニングしたデータのプライバシを保護するため、モデルのセキュリティとプライバシの重要なコンポーネントになります。
同時に、データサイエンティストと機械学習エンジニアは、不確実性定量化手法を使用して、モデルが可能な限り有用かつ実行可能なものであることを保証する。
差分プライバシーを有するモデルに対する会員推測攻撃を行うことにより、ドロップアウトによる不確実性定量化とプライバシの間の緊張関係を検討する。
差分的プライベートモデルを含む全てのケースにおいて、大きなドロップアウトを持つモデルは、メンバーシップ推論攻撃に陥るリスクをわずかに増大させる。
関連論文リスト
- Membership Inference Attacks and Privacy in Topic Modeling [3.9379577980832843]
トレーニングデータのメンバーを確実に識別できるトピックモデルに対する攻撃を提案する。
本稿では,DP語彙選択を前処理ステップとして組み込んだプライベートトピックモデリングフレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-07T12:43:42Z) - Improved Membership Inference Attacks Against Language Classification
Models [0.0]
分類モデルに対するメンバシップ推論攻撃を実行するための新しいフレームワークを提案する。
本手法は,単一攻撃モデルやクラスラベル毎の攻撃モデルよりも精度が高いことを示す。
論文 参考訳(メタデータ) (2023-10-11T06:09:48Z) - Large Language Models Can Be Good Privacy Protection Learners [53.07930843882592]
本稿では,プライバシ保護言語モデル(PPLM)を紹介する。
本研究は, コーパスキュレーション, ペナルティに基づくトレーニング損失の相違, 命令に基づくチューニングなど, モデル設計の理論的解析を行う。
特に、肯定的な例と否定的な例の両方による命令チューニングは、モデルの知識を高めながら、個人データを効果的に保護する、有望な方法として際立っている。
論文 参考訳(メタデータ) (2023-10-03T22:37:01Z) - Learning Differentially Private Probabilistic Models for
Privacy-Preserving Image Generation [67.47979276739144]
差分プライバシー保証付き高解像度画像を生成するために,差分プライベート確率モデルの学習を提案する。
我々のアプローチは、目立った視覚的品質とデータユーティリティで256x256までの画像を生成することができる。
論文 参考訳(メタデータ) (2023-05-18T02:51:17Z) - "You Can't Fix What You Can't Measure": Privately Measuring Demographic
Performance Disparities in Federated Learning [78.70083858195906]
グループメンバーシップのプライバシを保護しつつ,グループ間でのパフォーマンスの差異を測定するための,差分プライベートなメカニズムを提案する。
我々の結果は、以前の研究の示唆に反して、プライバシ保護は必ずしもフェデレーションモデルの性能格差の特定と矛盾しているわけではないことを示している。
論文 参考訳(メタデータ) (2022-06-24T09:46:43Z) - Just Fine-tune Twice: Selective Differential Privacy for Large Language
Models [69.66654761324702]
本稿では,大規模なトランスフォーマーベース言語モデルのためのSDPを実現するための,シンプルで効果的なジャストファイントゥンツースプライバシ機構を提案する。
実験により, カナリア挿入攻撃に対して頑健でありながら, 高い性能が得られた。
論文 参考訳(メタデータ) (2022-04-15T22:36:55Z) - SF-PATE: Scalable, Fair, and Private Aggregation of Teacher Ensembles [50.90773979394264]
本稿では、個人の機密情報のプライバシーを保護しつつ、差別的でない予測者の学習を可能にするモデルについて検討する。
提案モデルの主な特徴は、プライバシ保護とフェアモデルを作成するために、オフ・ザ・セルフと非プライベートフェアモデルの採用を可能にすることである。
論文 参考訳(メタデータ) (2022-04-11T14:42:54Z) - Leveraging Adversarial Examples to Quantify Membership Information
Leakage [30.55736840515317]
パターン認識モデルにおけるメンバシップ推論の問題に対処する新しいアプローチを開発する。
この量はトレーニングデータに属する可能性を反映していると我々は主張する。
我々の手法は、最先端の戦略に匹敵する、あるいは上回る性能を発揮する。
論文 参考訳(メタデータ) (2022-03-17T19:09:38Z) - PEARL: Data Synthesis via Private Embeddings and Adversarial
Reconstruction Learning [1.8692254863855962]
本稿では, 深層生成モデルを用いたデータ・フレームワークを, 差分的にプライベートな方法で提案する。
当社のフレームワークでは、センシティブなデータは、厳格なプライバシ保証をワンショットで行うことで衛生化されています。
提案手法は理論的に性能が保証され,複数のデータセットに対する経験的評価により,提案手法が適切なプライバシーレベルで他の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2021-06-08T18:00:01Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z) - Anonymizing Machine Learning Models [0.0]
匿名化されたデータは、EU一般データ保護規則などの規則で定められた義務から除外される。
そこで本研究では,学習モデル内に符号化された知識を用いて,より優れたモデル精度を実現する手法を提案する。
また、当社のアプローチには、差分プライバシーに基づくアプローチとして、メンバーシップアタックを防止できる機能があることも示しています。
論文 参考訳(メタデータ) (2020-07-26T09:29:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。