論文の概要: I Prefer not to Say: Operationalizing Fair and User-guided Data
Minimization
- arxiv url: http://arxiv.org/abs/2210.13954v1
- Date: Tue, 25 Oct 2022 12:16:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-26 13:02:52.240285
- Title: I Prefer not to Say: Operationalizing Fair and User-guided Data
Minimization
- Title(参考訳): 言うまでもなく:公正かつユーザ主導のデータ最小化の運用
- Authors: Tobias Leemann, Martin Pawelczyk, Christian Thomas Eberle, Gjergji
Kasneci
- Abstract要約: 政策立案者は、より厳格なデータ保護規制(例えば、CCPA)を提案した。
この規制についてユーザ中心の視点を採り、個々のユーザがどのデータを適切に判断し、どのデータをマシン学習モデルで処理すべきかを判断させます。
我々は,我々の要求に従えば,選択的特徴フェアネス(OFF)の概念を提案する。
- 参考スコア(独自算出の注目度): 12.401331448135263
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To grant users greater authority over their personal data, policymakers have
suggested tighter data protection regulations (e.g., GDPR, CCPA). One key
principle within these regulations is data minimization, which urges companies
and institutions to only collect data that is relevant and adequate for the
purpose of the data analysis. In this work, we take a user-centric perspective
on this regulation, and let individual users decide which data they deem
adequate and relevant to be processed by a machine-learned model. We require
that users who decide to provide optional information should appropriately
benefit from sharing their data, while users who rely on the mandate to leave
their data undisclosed should not be penalized for doing so. This gives rise to
the overlooked problem of fair treatment between individuals providing
additional information and those choosing not to. While the classical fairness
literature focuses on fair treatment between advantaged and disadvantaged
groups, an initial look at this problem through the lens of classical fairness
notions reveals that they are incompatible with these desiderata. We offer a
solution to this problem by proposing the notion of Optional Feature Fairness
(OFF) that follows from our requirements. To operationalize OFF, we derive a
multi-model strategy and a tractable logistic regression model. We analyze the
effect and the cost of applying OFF on several real-world data sets.
- Abstract(参考訳): 個人データに対してより大きな権限を与えるため、政策立案者はより厳格なデータ保護規制(GDPR、CCPAなど)を提案した。
これらの規制の鍵となる原則はデータ最小化であり、企業や機関はデータ分析のために適切かつ適切なデータのみを収集するよう促す。
本研究では,この規制についてユーザ中心の視点で検討し,各ユーザが適切なデータと関連するデータをマシン学習モデルで処理するかを個別に判断する。
オプション情報の提供を決めたユーザは,データ共有のメリットを適切に享受しなくてはなりません。
これは、追加情報を提供する個人と、選択しない人の間での公平な扱いの見過ごされる問題を引き起こす。
古典的フェアネス文学は、有利なグループと不利なグループの間の公正な扱いに焦点を当てているが、古典的フェアネス概念のレンズを通して最初にこの問題を考察すると、これらのデシデラタとは相容れないことが分かる。
私たちは、要件から従うオプションのフィーチャーフェアネス(off)の概念を提案して、この問題に対する解決策を提供します。
OFFを運用するには、マルチモデル戦略とトラクタブルロジスティック回帰モデルを導出する。
我々は,いくつかの実世界のデータセットに適用する効果とコストを分析した。
関連論文リスト
- Mind the Privacy Unit! User-Level Differential Privacy for Language Model Fine-Tuning [62.224804688233]
差分プライバシ(DP)は、モデルが特定のプライバシユニットで「ほとんど区別できない」ことを保証することで、有望なソリューションを提供する。
ユーザ間でのプライバシー保護の確保に必要なアプリケーションによって動機づけられたユーザレベルのDPについて検討する。
論文 参考訳(メタデータ) (2024-06-20T13:54:32Z) - $\alpha$-Mutual Information: A Tunable Privacy Measure for Privacy
Protection in Data Sharing [4.475091558538915]
本稿では, 有基の$alpha$-Mutual Informationを調整可能なプライバシ尺度として採用する。
我々は、プライバシ保護を提供するためにオリジナルのデータを操作するための一般的な歪みに基づくメカニズムを定式化する。
論文 参考訳(メタデータ) (2023-10-27T16:26:14Z) - Protecting User Privacy in Online Settings via Supervised Learning [69.38374877559423]
我々は、教師付き学習を活用する、オンラインプライバシ保護に対するインテリジェントなアプローチを設計する。
ユーザのプライバシを侵害する可能性のあるデータ収集を検出してブロックすることにより、ユーザに対してある程度のディジタルプライバシを復元することが可能になります。
論文 参考訳(メタデータ) (2023-04-06T05:20:16Z) - Membership Inference Attacks against Synthetic Data through Overfitting
Detection [84.02632160692995]
我々は、攻撃者が基礎となるデータ分布についてある程度の知識を持っていると仮定する現実的なMIA設定について論じる。
生成モデルの局所的なオーバーフィッティングをターゲットとして,メンバシップを推論することを目的とした密度ベースMIAモデルであるDOMIASを提案する。
論文 参考訳(メタデータ) (2023-02-24T11:27:39Z) - Certified Data Removal in Sum-Product Networks [78.27542864367821]
収集したデータの削除は、データのプライバシを保証するのに不十分であることが多い。
UnlearnSPNは、訓練された総生産ネットワークから単一データポイントの影響を取り除くアルゴリズムである。
論文 参考訳(メタデータ) (2022-10-04T08:22:37Z) - Group privacy for personalized federated learning [4.30484058393522]
フェデレーション・ラーニング(Federated Learning)は、コラボレーティブ・機械学習の一種で、参加するクライアントがデータをローカルに処理し、コラボレーティブ・モデルの更新のみを共有する。
我々は、$d$-privacyのキープロパティを利用するグループプライバシ保証を提供する方法を提案する。
論文 参考訳(メタデータ) (2022-06-07T15:43:45Z) - Personalized PATE: Differential Privacy for Machine Learning with
Individual Privacy Guarantees [1.2691047660244335]
トレーニングデータ内に、パーソナライズされたプライバシ保証の異なるMLモデルのトレーニングを支援する3つの新しい方法を提案する。
実験により, 個人化されたプライバシ手法は, 非個人化されたベースラインよりも高い精度のモデルが得られることがわかった。
論文 参考訳(メタデータ) (2022-02-21T20:16:27Z) - Causally Constrained Data Synthesis for Private Data Release [36.80484740314504]
原データの特定の統計特性を反映した合成データを使用することで、原データのプライバシーが保護される。
以前の作業では、正式なプライバシ保証を提供するために、差分プライベートなデータリリースメカニズムを使用していました。
トレーニングプロセスに因果情報を導入し、上記のトレードオフを好意的に修正することを提案する。
論文 参考訳(メタデータ) (2021-05-27T13:46:57Z) - Preventing Unauthorized Use of Proprietary Data: Poisoning for Secure
Dataset Release [52.504589728136615]
公開したデータを最小限に修正して、他人がトレーニングモデルに乗らないようにするデータ中毒法を開発しています。
我々は,imagenet分類と顔認識によるアプローチの成功を実証する。
論文 参考訳(メタデータ) (2021-02-16T19:12:34Z) - PCAL: A Privacy-preserving Intelligent Credit Risk Modeling Framework
Based on Adversarial Learning [111.19576084222345]
本稿では,PCAL(Adversarial Learning)に基づくプライバシ保護型信用リスクモデリングの枠組みを提案する。
PCALは、ターゲット予測タスクのパフォーマンスの重要なユーティリティ情報を維持しながら、元のデータセット内のプライベート情報を隠蔽することを目的としている。
結果は,PCALがユーザデータから効果的なプライバシフリー表現を学習し,信用リスク分析のためのプライバシ保存機械学習の基盤となることを示唆している。
論文 参考訳(メタデータ) (2020-10-06T07:04:59Z) - Practical Privacy Preserving POI Recommendation [26.096197310800328]
本稿では,プライバシ保護のためのPOI勧告(PriRec)フレームワークを提案する。
PriRecは、ユーザのプライベートな生データとモデルを自身の手で保持し、ユーザのプライバシを広範囲に保護する。
実世界のデータセットにPriRecを適用し、包括的な実験により、FMと比較すると、PriRecは同等またはそれ以上のレコメンデーション精度を達成した。
論文 参考訳(メタデータ) (2020-03-05T06:06:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。