論文の概要: I Prefer not to Say: Protecting User Consent in Models with Optional
Personal Data
- arxiv url: http://arxiv.org/abs/2210.13954v5
- Date: Fri, 2 Feb 2024 13:56:21 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-05 20:52:07.556069
- Title: I Prefer not to Say: Protecting User Consent in Models with Optional
Personal Data
- Title(参考訳): 好ましくは言わない:任意の個人データを用いたモデルにおけるユーザコンテントの保護
- Authors: Tobias Leemann, Martin Pawelczyk, Christian Thomas Eberle, Gjergji
Kasneci
- Abstract要約: データの共有をしない決定は,ユーザのプライバシを尊重するために保護されるべき情報として,それ自体が考えられる。
我々は,アクティブなユーザ同意を得た情報のみを使用するモデルに対する保護要件を定式化する。
- 参考スコア(独自算出の注目度): 20.238432971718524
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We examine machine learning models in a setup where individuals have the
choice to share optional personal information with a decision-making system, as
seen in modern insurance pricing models. Some users consent to their data being
used whereas others object and keep their data undisclosed. In this work, we
show that the decision not to share data can be considered as information in
itself that should be protected to respect users' privacy. This observation
raises the overlooked problem of how to ensure that users who protect their
personal data do not suffer any disadvantages as a result. To address this
problem, we formalize protection requirements for models which only use the
information for which active user consent was obtained. This excludes implicit
information contained in the decision to share data or not. We offer the first
solution to this problem by proposing the notion of Protected User Consent
(PUC), which we prove to be loss-optimal under our protection requirement. We
observe that privacy and performance are not fundamentally at odds with each
other and that it is possible for a decision maker to benefit from additional
data while respecting users' consent. To learn PUC-compliant models, we devise
a model-agnostic data augmentation strategy with finite sample convergence
guarantees. Finally, we analyze the implications of PUC on challenging real
datasets, tasks, and models.
- Abstract(参考訳): 現代の保険価格モデルに見られるように、個人が任意の個人情報を意思決定システムと共有できるような設定で機械学習モデルを検討する。
使用中のデータに同意するユーザもいれば,データの公開を控えるユーザもいる。
本研究は,データの共有をしない決定を,ユーザのプライバシーを尊重するために保護すべき情報と見なすことができることを示す。
この観察は、個人情報を保護しているユーザーが不利益を被らないようにする方法の見過ごされがちな問題を引き起こす。
この問題に対処するため,我々は,アクティブユーザの同意を得た情報のみを使用するモデルに対する保護要件を定式化する。
これは、データを共有するか否かの決定に含まれる暗黙の情報を除外する。
保護要件下での損失最適性を証明した保護ユーザコンセント(PUC)の概念を提案することにより,この問題に対する最初の解決策を提供する。
プライバシとパフォーマンスは基本的には相反するものではなく、意思決定者がユーザの同意を尊重しながら追加データから利益を得ることが可能である。
PUCに準拠したモデルを学習するために,有限サンプル収束保証付きモデルに依存しないデータ拡張戦略を提案する。
最後に、実際のデータセット、タスク、モデルに挑戦する上でのPUCの影響を分析する。
関連論文リスト
- Mind the Privacy Unit! User-Level Differential Privacy for Language Model Fine-Tuning [62.224804688233]
差分プライバシ(DP)は、モデルが特定のプライバシユニットで「ほとんど区別できない」ことを保証することで、有望なソリューションを提供する。
ユーザ間でのプライバシー保護の確保に必要なアプリケーションによって動機づけられたユーザレベルのDPについて検討する。
論文 参考訳(メタデータ) (2024-06-20T13:54:32Z) - $\alpha$-Mutual Information: A Tunable Privacy Measure for Privacy
Protection in Data Sharing [4.475091558538915]
本稿では, 有基の$alpha$-Mutual Informationを調整可能なプライバシ尺度として採用する。
我々は、プライバシ保護を提供するためにオリジナルのデータを操作するための一般的な歪みに基づくメカニズムを定式化する。
論文 参考訳(メタデータ) (2023-10-27T16:26:14Z) - Protecting User Privacy in Online Settings via Supervised Learning [69.38374877559423]
我々は、教師付き学習を活用する、オンラインプライバシ保護に対するインテリジェントなアプローチを設計する。
ユーザのプライバシを侵害する可能性のあるデータ収集を検出してブロックすることにより、ユーザに対してある程度のディジタルプライバシを復元することが可能になります。
論文 参考訳(メタデータ) (2023-04-06T05:20:16Z) - Membership Inference Attacks against Synthetic Data through Overfitting
Detection [84.02632160692995]
我々は、攻撃者が基礎となるデータ分布についてある程度の知識を持っていると仮定する現実的なMIA設定について論じる。
生成モデルの局所的なオーバーフィッティングをターゲットとして,メンバシップを推論することを目的とした密度ベースMIAモデルであるDOMIASを提案する。
論文 参考訳(メタデータ) (2023-02-24T11:27:39Z) - Certified Data Removal in Sum-Product Networks [78.27542864367821]
収集したデータの削除は、データのプライバシを保証するのに不十分であることが多い。
UnlearnSPNは、訓練された総生産ネットワークから単一データポイントの影響を取り除くアルゴリズムである。
論文 参考訳(メタデータ) (2022-10-04T08:22:37Z) - Group privacy for personalized federated learning [4.30484058393522]
フェデレーション・ラーニング(Federated Learning)は、コラボレーティブ・機械学習の一種で、参加するクライアントがデータをローカルに処理し、コラボレーティブ・モデルの更新のみを共有する。
我々は、$d$-privacyのキープロパティを利用するグループプライバシ保証を提供する方法を提案する。
論文 参考訳(メタデータ) (2022-06-07T15:43:45Z) - Personalized PATE: Differential Privacy for Machine Learning with
Individual Privacy Guarantees [1.2691047660244335]
トレーニングデータ内に、パーソナライズされたプライバシ保証の異なるMLモデルのトレーニングを支援する3つの新しい方法を提案する。
実験により, 個人化されたプライバシ手法は, 非個人化されたベースラインよりも高い精度のモデルが得られることがわかった。
論文 参考訳(メタデータ) (2022-02-21T20:16:27Z) - Causally Constrained Data Synthesis for Private Data Release [36.80484740314504]
原データの特定の統計特性を反映した合成データを使用することで、原データのプライバシーが保護される。
以前の作業では、正式なプライバシ保証を提供するために、差分プライベートなデータリリースメカニズムを使用していました。
トレーニングプロセスに因果情報を導入し、上記のトレードオフを好意的に修正することを提案する。
論文 参考訳(メタデータ) (2021-05-27T13:46:57Z) - Preventing Unauthorized Use of Proprietary Data: Poisoning for Secure
Dataset Release [52.504589728136615]
公開したデータを最小限に修正して、他人がトレーニングモデルに乗らないようにするデータ中毒法を開発しています。
我々は,imagenet分類と顔認識によるアプローチの成功を実証する。
論文 参考訳(メタデータ) (2021-02-16T19:12:34Z) - PCAL: A Privacy-preserving Intelligent Credit Risk Modeling Framework
Based on Adversarial Learning [111.19576084222345]
本稿では,PCAL(Adversarial Learning)に基づくプライバシ保護型信用リスクモデリングの枠組みを提案する。
PCALは、ターゲット予測タスクのパフォーマンスの重要なユーティリティ情報を維持しながら、元のデータセット内のプライベート情報を隠蔽することを目的としている。
結果は,PCALがユーザデータから効果的なプライバシフリー表現を学習し,信用リスク分析のためのプライバシ保存機械学習の基盤となることを示唆している。
論文 参考訳(メタデータ) (2020-10-06T07:04:59Z) - Practical Privacy Preserving POI Recommendation [26.096197310800328]
本稿では,プライバシ保護のためのPOI勧告(PriRec)フレームワークを提案する。
PriRecは、ユーザのプライベートな生データとモデルを自身の手で保持し、ユーザのプライバシを広範囲に保護する。
実世界のデータセットにPriRecを適用し、包括的な実験により、FMと比較すると、PriRecは同等またはそれ以上のレコメンデーション精度を達成した。
論文 参考訳(メタデータ) (2020-03-05T06:06:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。