論文の概要: Accurate, Explainable, and Private Models: Providing Recourse While
Minimizing Training Data Leakage
- arxiv url: http://arxiv.org/abs/2308.04341v1
- Date: Tue, 8 Aug 2023 15:38:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-09 12:15:41.264109
- Title: Accurate, Explainable, and Private Models: Providing Recourse While
Minimizing Training Data Leakage
- Title(参考訳): 正確、説明可能、プライベートモデル:トレーニングデータの漏洩を最小限に抑えながらリコースを提供する
- Authors: Catherine Huang, Chelse Swoopes, Christina Xiao, Jiaqi Ma, Himabindu
Lakkaraju
- Abstract要約: 本稿では,2つの新しい手法について述べる。
DPM と LR は,相手が推測できることを減らすのに有効である。
- 参考スコア(独自算出の注目度): 10.921553888358375
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning models are increasingly utilized across impactful domains to
predict individual outcomes. As such, many models provide algorithmic recourse
to individuals who receive negative outcomes. However, recourse can be
leveraged by adversaries to disclose private information. This work presents
the first attempt at mitigating such attacks. We present two novel methods to
generate differentially private recourse: Differentially Private Model (DPM)
and Laplace Recourse (LR). Using logistic regression classifiers and real world
and synthetic datasets, we find that DPM and LR perform well in reducing what
an adversary can infer, especially at low FPR. When training dataset size is
large enough, we find particular success in preventing privacy leakage while
maintaining model and recourse accuracy with our novel LR method.
- Abstract(参考訳): 機械学習モデルは、個々の結果を予測するために、影響のある領域でますます利用されています。
このように、多くのモデルは、否定的な結果を受ける個人にアルゴリズム的リコースを提供する。
しかし、recourseは敵によってプライベートな情報を開示するために利用される。
この研究はそのような攻撃を緩和する最初の試みである。
本稿では,微分プライベート・モデル(DPM)とラプラス・リコース(LR)の2つの新しい手法を提案する。
実世界および合成データセットのロジスティック回帰分類器を用いて、DPMとLRは、特に低FPRにおいて、敵対者が推論できることを減らすのに有効であることがわかった。
トレーニングデータセットのサイズが十分に大きい場合、モデルを維持しながらプライバシーの漏洩を防止し、新しいLR法でレコメンデーション精度を向上することに成功した。
関連論文リスト
- Membership Inference Attacks against Synthetic Data through Overfitting
Detection [84.02632160692995]
我々は、攻撃者が基礎となるデータ分布についてある程度の知識を持っていると仮定する現実的なMIA設定について論じる。
生成モデルの局所的なオーバーフィッティングをターゲットとして,メンバシップを推論することを目的とした密度ベースMIAモデルであるDOMIASを提案する。
論文 参考訳(メタデータ) (2023-02-24T11:27:39Z) - CANIFE: Crafting Canaries for Empirical Privacy Measurement in Federated
Learning [77.27443885999404]
Federated Learning(FL)は、分散環境で機械学習モデルをトレーニングするための設定である。
本稿では,訓練ラウンドの経験的プライバシを評価するために,強敵による慎重なサンプル作成手法であるCANIFEを提案する。
論文 参考訳(メタデータ) (2022-10-06T13:30:16Z) - RelaxLoss: Defending Membership Inference Attacks without Losing Utility [68.48117818874155]
より達成可能な学習目標を持つ緩和された損失に基づく新しい学習フレームワークを提案する。
RelaxLossは、簡単な実装と無視可能なオーバーヘッドのメリットを加えた任意の分類モデルに適用できる。
当社のアプローチはMIAに対するレジリエンスの観点から,常に最先端の防御機構より優れています。
論文 参考訳(メタデータ) (2022-07-12T19:34:47Z) - One-Pixel Shortcut: on the Learning Preference of Deep Neural Networks [28.502489028888608]
Unlearnable Example (ULE) は、DNNのトレーニングのための不正使用からデータを保護することを目的としている。
逆行訓練では、誤り最小化ノイズの非学習性は著しく低下する。
本稿では,各画像の1ピクセルのみを摂動させ,データセットを学習不能にする,新しいモデルフリー手法であるemphOne-Pixel Shortcutを提案する。
論文 参考訳(メタデータ) (2022-05-24T15:17:52Z) - Just Fine-tune Twice: Selective Differential Privacy for Large Language
Models [69.66654761324702]
本稿では,大規模なトランスフォーマーベース言語モデルのためのSDPを実現するための,シンプルで効果的なジャストファイントゥンツースプライバシ機構を提案する。
実験により, カナリア挿入攻撃に対して頑健でありながら, 高い性能が得られた。
論文 参考訳(メタデータ) (2022-04-15T22:36:55Z) - Distributionally Robust Models with Parametric Likelihood Ratios [123.05074253513935]
3つの単純なアイデアにより、より広いパラメトリックな確率比のクラスを用いてDROでモデルを訓練することができる。
パラメトリック逆数を用いてトレーニングしたモデルは、他のDROアプローチと比較して、サブポピュレーションシフトに対して一貫して頑健であることがわかった。
論文 参考訳(メタデータ) (2022-04-13T12:43:12Z) - Privacy-Preserving Federated Learning on Partitioned Attributes [6.661716208346423]
フェデレーション学習は、ローカルデータやモデルを公開することなく、協調的なトレーニングを促進する。
ローカルモデルをチューニングし、プライバシー保護された中間表現をリリースする逆学習ベースの手順を紹介します。
精度低下を緩和するために,前方後方分割アルゴリズムに基づく防御法を提案する。
論文 参考訳(メタデータ) (2021-04-29T14:49:14Z) - Adversary Instantiation: Lower Bounds for Differentially Private Machine
Learning [43.6041475698327]
異なるプライベート(DP)機械学習により、データ漏洩を制限しながら、プライベートデータに関するモデルをトレーニングできます。
本稿では,DPトレーニングアルゴリズムのプライバシ分析における敵対的能力の重要性について検討する。
論文 参考訳(メタデータ) (2021-01-11T18:47:11Z) - Knowledge-Enriched Distributional Model Inversion Attacks [49.43828150561947]
モデルインバージョン(MI)攻撃は、モデルパラメータからトレーニングデータを再構成することを目的としている。
本稿では,パブリックデータからプライベートモデルに対する攻撃を行うのに役立つ知識を抽出する,新しい反転型GANを提案する。
実験の結果,これらの手法を組み合わせることで,最先端MI攻撃の成功率を150%向上させることができることがわかった。
論文 参考訳(メタデータ) (2020-10-08T16:20:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。