論文の概要: I Prefer not to Say: Are Users Penalized for Protecting Personal Data?
- arxiv url: http://arxiv.org/abs/2210.13954v3
- Date: Fri, 27 Jan 2023 16:41:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 12:03:51.211270
- Title: I Prefer not to Say: Are Users Penalized for Protecting Personal Data?
- Title(参考訳): ユーザーの個人情報保護は罰せられるのか?
- Authors: Tobias Leemann, Martin Pawelczyk, Christian Thomas Eberle, Gjergji
Kasneci
- Abstract要約: 提案した情報のみによって正当化されるよりも,非合意ユーザの方が予測結果が有意に低いことが判明した。
保護条件下での損失最適性を証明したOFF(Optional Feature Fairness)を提案する。
我々は、さまざまな課題のある現実世界のタスク、モデル、データセットのOFを、複数のオプション機能で広範囲に分析する。
- 参考スコア(独自算出の注目度): 12.401331448135263
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We examine the problem of obtaining fair outcomes for individuals who choose
to share optional information with machine-learned models and those who do not
consent and keep their data undisclosed. We find that these non-consenting
users receive significantly lower prediction outcomes than justified by their
provided information alone. This observation gives rise to the overlooked
problem of how to ensure that users, who protect their personal data, are not
penalized. While statistical fairness notions focus on fair outcomes between
advantaged and disadvantaged groups, these fairness notions fail to protect the
non-consenting users. To address this problem, we formalize protection
requirements for models which (i) allow users to benefit from sharing optional
information and (ii) do not penalize them if they keep their data undisclosed.
We offer the first solution to this problem by proposing the notion of Optional
Feature Fairness (OFF), which we prove to be loss-optimal under our protection
requirements (i) and (ii). To learn OFF-compliant models, we devise a
model-agnostic data augmentation strategy with finite sample convergence
guarantees. Finally, we extensively analyze OFF on a variety of challenging
real-world tasks, models, and data sets with multiple optional features.
- Abstract(参考訳): 機械学習モデルとオプション情報を共有することを選択した個人や、同意せずデータを開示しない個人に対して、公正な結果を得るという課題について検討する。
これらの非接触ユーザは提供された情報だけで正当化されるよりも予測結果が著しく低いことが判明した。
この観察は、個人情報を保護しているユーザーが罰せられないようにする方法という、見落とされがちな問題を引き起こす。
統計的公平性の概念は、有利なグループと不利なグループの間の公正な結果に焦点を当てているが、これらの公平性の概念は、不利なユーザーを保護できない。
この問題に対処するため、我々はモデルの保護要件を定式化する。
(i)ユーザーが任意の情報を共有することで利益を得ることができること
(ii)データを非公開にしておけば罰を与えない。
保護要件下での損失最適性を証明したOFF(Optional Feature Fairness)の概念を提案することにより、この問題に対する最初の解決策を提供する。
(i)および
(ii)
オフ準拠モデルを学ぶために、有限サンプル収束保証付きモデル非依存データ拡張戦略を考案する。
最後に、さまざまな課題のある現実世界のタスク、モデル、データセットのOFを、複数のオプション機能で広範囲に分析する。
関連論文リスト
- Mind the Privacy Unit! User-Level Differential Privacy for Language Model Fine-Tuning [62.224804688233]
差分プライバシ(DP)は、モデルが特定のプライバシユニットで「ほとんど区別できない」ことを保証することで、有望なソリューションを提供する。
ユーザ間でのプライバシー保護の確保に必要なアプリケーションによって動機づけられたユーザレベルのDPについて検討する。
論文 参考訳(メタデータ) (2024-06-20T13:54:32Z) - $\alpha$-Mutual Information: A Tunable Privacy Measure for Privacy
Protection in Data Sharing [4.475091558538915]
本稿では, 有基の$alpha$-Mutual Informationを調整可能なプライバシ尺度として採用する。
我々は、プライバシ保護を提供するためにオリジナルのデータを操作するための一般的な歪みに基づくメカニズムを定式化する。
論文 参考訳(メタデータ) (2023-10-27T16:26:14Z) - Protecting User Privacy in Online Settings via Supervised Learning [69.38374877559423]
我々は、教師付き学習を活用する、オンラインプライバシ保護に対するインテリジェントなアプローチを設計する。
ユーザのプライバシを侵害する可能性のあるデータ収集を検出してブロックすることにより、ユーザに対してある程度のディジタルプライバシを復元することが可能になります。
論文 参考訳(メタデータ) (2023-04-06T05:20:16Z) - Membership Inference Attacks against Synthetic Data through Overfitting
Detection [84.02632160692995]
我々は、攻撃者が基礎となるデータ分布についてある程度の知識を持っていると仮定する現実的なMIA設定について論じる。
生成モデルの局所的なオーバーフィッティングをターゲットとして,メンバシップを推論することを目的とした密度ベースMIAモデルであるDOMIASを提案する。
論文 参考訳(メタデータ) (2023-02-24T11:27:39Z) - Certified Data Removal in Sum-Product Networks [78.27542864367821]
収集したデータの削除は、データのプライバシを保証するのに不十分であることが多い。
UnlearnSPNは、訓練された総生産ネットワークから単一データポイントの影響を取り除くアルゴリズムである。
論文 参考訳(メタデータ) (2022-10-04T08:22:37Z) - Group privacy for personalized federated learning [4.30484058393522]
フェデレーション・ラーニング(Federated Learning)は、コラボレーティブ・機械学習の一種で、参加するクライアントがデータをローカルに処理し、コラボレーティブ・モデルの更新のみを共有する。
我々は、$d$-privacyのキープロパティを利用するグループプライバシ保証を提供する方法を提案する。
論文 参考訳(メタデータ) (2022-06-07T15:43:45Z) - Personalized PATE: Differential Privacy for Machine Learning with
Individual Privacy Guarantees [1.2691047660244335]
トレーニングデータ内に、パーソナライズされたプライバシ保証の異なるMLモデルのトレーニングを支援する3つの新しい方法を提案する。
実験により, 個人化されたプライバシ手法は, 非個人化されたベースラインよりも高い精度のモデルが得られることがわかった。
論文 参考訳(メタデータ) (2022-02-21T20:16:27Z) - Causally Constrained Data Synthesis for Private Data Release [36.80484740314504]
原データの特定の統計特性を反映した合成データを使用することで、原データのプライバシーが保護される。
以前の作業では、正式なプライバシ保証を提供するために、差分プライベートなデータリリースメカニズムを使用していました。
トレーニングプロセスに因果情報を導入し、上記のトレードオフを好意的に修正することを提案する。
論文 参考訳(メタデータ) (2021-05-27T13:46:57Z) - Preventing Unauthorized Use of Proprietary Data: Poisoning for Secure
Dataset Release [52.504589728136615]
公開したデータを最小限に修正して、他人がトレーニングモデルに乗らないようにするデータ中毒法を開発しています。
我々は,imagenet分類と顔認識によるアプローチの成功を実証する。
論文 参考訳(メタデータ) (2021-02-16T19:12:34Z) - PCAL: A Privacy-preserving Intelligent Credit Risk Modeling Framework
Based on Adversarial Learning [111.19576084222345]
本稿では,PCAL(Adversarial Learning)に基づくプライバシ保護型信用リスクモデリングの枠組みを提案する。
PCALは、ターゲット予測タスクのパフォーマンスの重要なユーティリティ情報を維持しながら、元のデータセット内のプライベート情報を隠蔽することを目的としている。
結果は,PCALがユーザデータから効果的なプライバシフリー表現を学習し,信用リスク分析のためのプライバシ保存機械学習の基盤となることを示唆している。
論文 参考訳(メタデータ) (2020-10-06T07:04:59Z) - Practical Privacy Preserving POI Recommendation [26.096197310800328]
本稿では,プライバシ保護のためのPOI勧告(PriRec)フレームワークを提案する。
PriRecは、ユーザのプライベートな生データとモデルを自身の手で保持し、ユーザのプライバシを広範囲に保護する。
実世界のデータセットにPriRecを適用し、包括的な実験により、FMと比較すると、PriRecは同等またはそれ以上のレコメンデーション精度を達成した。
論文 参考訳(メタデータ) (2020-03-05T06:06:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。