論文の概要: On the Privacy Risks of Algorithmic Recourse
- arxiv url: http://arxiv.org/abs/2211.05427v1
- Date: Thu, 10 Nov 2022 09:04:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-11 14:48:33.204076
- Title: On the Privacy Risks of Algorithmic Recourse
- Title(参考訳): アルゴリズムリコースのプライバシーリスクについて
- Authors: Martin Pawelczyk and Himabindu Lakkaraju and Seth Neel
- Abstract要約: 対戦相手がリコースを利用して、基礎となるモデルのトレーニングデータに関するプライベート情報を推測できるかどうかを調査する最初の試みを行う。
我々の研究は、リコメンデーション手法の普及において、意図しないプライバシー漏洩が重要なリスクとして確立されている。
- 参考スコア(独自算出の注目度): 17.33484111779023
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As predictive models are increasingly being employed to make consequential
decisions, there is a growing emphasis on developing techniques that can
provide algorithmic recourse to affected individuals. While such recourses can
be immensely beneficial to affected individuals, potential adversaries could
also exploit these recourses to compromise privacy. In this work, we make the
first attempt at investigating if and how an adversary can leverage recourses
to infer private information about the underlying model's training data. To
this end, we propose a series of novel membership inference attacks which
leverage algorithmic recourse. More specifically, we extend the prior
literature on membership inference attacks to the recourse setting by
leveraging the distances between data instances and their corresponding
counterfactuals output by state-of-the-art recourse methods. Extensive
experimentation with real world and synthetic datasets demonstrates significant
privacy leakage through recourses. Our work establishes unintended privacy
leakage as an important risk in the widespread adoption of recourse methods.
- Abstract(参考訳): 予測モデルが一連の意思決定に利用されてきているため、影響を受ける個人にアルゴリズム的リコースを提供する技術の開発に重点が置かれている。
このような言動は影響を受ける個人にとって非常に有益であるが、潜在的な敵はこれらの言動を利用してプライバシーを侵害することもできる。
本研究では,対戦相手がリコースを利用して,基礎となるモデルのトレーニングデータに関するプライベート情報を推測できるかどうかを,まず調査する。
そこで本研究では,アルゴリズムを用いた新しいメンバーシップ推論攻撃を提案する。
具体的には、データインスタンスと、最先端のリコースメソッドによって出力される反事実との間の距離を利用して、メンバシップ推論攻撃に関する以前の文献をリコース設定に拡張する。
現実世界と合成データセットによる大規模な実験は、リコースを通じて重大なプライバシー漏洩を示す。
我々の研究は、リコメンデーション手法の普及において重要なリスクとして、意図しないプライバシー漏洩を確立している。
関連論文リスト
- Pseudo-Probability Unlearning: Towards Efficient and Privacy-Preserving Machine Unlearning [59.29849532966454]
本稿では,PseudoProbability Unlearning (PPU)を提案する。
提案手法は,最先端の手法に比べて20%以上の誤りを忘れる改善を実現している。
論文 参考訳(メタデータ) (2024-11-04T21:27:06Z) - Collection, usage and privacy of mobility data in the enterprise and public administrations [55.2480439325792]
個人のプライバシーを守るためには、匿名化などのセキュリティ対策が必要である。
本研究では,現場における実践の洞察を得るために,専門家によるインタビューを行った。
我々は、一般的には最先端の差分プライバシー基準に準拠しない、使用中のプライバシー強化手法を調査した。
論文 参考訳(メタデータ) (2024-07-04T08:29:27Z) - Visual Privacy Auditing with Diffusion Models [52.866433097406656]
本稿では,拡散モデル(DM)に基づくリコンストラクション攻撃を提案する。
本研究では,(1)実世界のデータ漏洩が再建の成功に大きく影響すること,(2)現在のリビルド境界がデータ先行によるリスクをうまくモデル化していないこと,(3)DMは,プライバシー漏洩を可視化するための効果的な監査ツールとして機能すること,を示す。
論文 参考訳(メタデータ) (2024-03-12T12:18:55Z) - PrivacyMind: Large Language Models Can Be Contextual Privacy Protection Learners [81.571305826793]
コンテキストプライバシ保護言語モデル(PrivacyMind)を紹介する。
我々の研究はモデル設計に関する理論的分析を提供し、様々な手法をベンチマークする。
特に、肯定的な例と否定的な例の両方による命令チューニングは、有望な方法である。
論文 参考訳(メタデータ) (2023-10-03T22:37:01Z) - A Unified View of Differentially Private Deep Generative Modeling [60.72161965018005]
プライバシー上の懸念のあるデータには、データアクセスとデータ共有を頻繁に禁止する厳格な規制が伴う。
これらの障害を克服することは、プライバシーに敏感なデータを含む多くの現実世界のアプリケーションシナリオにおいて、技術的進歩の鍵となる。
差分的プライベート(DP)データパブリッシングは、データの衛生化された形式のみを公開する、魅力的なソリューションを提供する。
論文 参考訳(メタデータ) (2023-09-27T14:38:16Z) - Counterfactual Explanations via Locally-guided Sequential Algorithmic
Recourse [13.95253855760017]
提案するLocalFACEは,現実的かつ実用的な対実的説明を構成するモデルに依存しない手法である。
提案手法は, ユーザのプライバシーを, 行動可能なアルゴリズムによる会話の構築に必要なデータのみを活用することで保護する。
論文 参考訳(メタデータ) (2023-09-08T08:47:23Z) - Re-thinking Data Availablity Attacks Against Deep Neural Networks [53.64624167867274]
本稿では、未学習例の概念を再検討し、既存のロバストな誤り最小化ノイズが不正確な最適化目標であることを示す。
本稿では,計算時間要件の低減による保護性能の向上を図った新しい最適化パラダイムを提案する。
論文 参考訳(メタデータ) (2023-05-18T04:03:51Z) - A General Framework for Auditing Differentially Private Machine Learning [27.99806936918949]
本稿では,差分プライベートな学習者によって与えられるプライバシ保証を統計的に評価する枠組みを提案する。
本研究は、微分プライベート機械学習実装のプライバシを実証的に評価する一般的な手法を開発する。
論文 参考訳(メタデータ) (2022-10-16T21:34:18Z) - Collaborative Drug Discovery: Inference-level Data Protection
Perspective [2.624902795082451]
製薬業界は、データ資産を活用して、協調的な機械学習プラットフォームを通じて薬物発見を仮想化することができる。
参加者のトレーニングデータの意図しない漏洩から生じる、無視できないリスクがある。
本稿では,創薬前段階における協調的モデリングのためのプライバシリスク評価について述べる。
論文 参考訳(メタデータ) (2022-05-13T08:30:50Z) - Federated Deep Learning with Bayesian Privacy [28.99404058773532]
フェデレートラーニング(FL)は、ユーザ間でプライベートデータを共有せずにモデルを協調的に学習することで、データのプライバシを保護することを目的としている。
ホモモルフィック暗号化(HE)ベースの手法は、セキュアなプライバシ保護を提供するが、非常に高い計算と通信のオーバーヘッドに悩まされる。
差分プライバシ(DP)を用いたディープラーニングは,複雑な管理コストで実践的な学習アルゴリズムとして実装された。
論文 参考訳(メタデータ) (2021-09-27T12:48:40Z) - SPEED: Secure, PrivatE, and Efficient Deep learning [2.283665431721732]
私たちは、強力なプライバシー制約に対処できるディープラーニングフレームワークを導入します。
協調学習、差分プライバシー、同型暗号化に基づいて、提案手法は最先端技術に進化する。
論文 参考訳(メタデータ) (2020-06-16T19:31:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。