論文の概要: The Fair Value of Data Under Heterogeneous Privacy Constraints
- arxiv url: http://arxiv.org/abs/2301.13336v1
- Date: Mon, 30 Jan 2023 23:51:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-01 18:08:49.698022
- Title: The Fair Value of Data Under Heterogeneous Privacy Constraints
- Title(参考訳): 不均一なプライバシー制約下におけるデータの公正な価値
- Authors: Justin Kang, Ramtin Pedarsani, Kannan Ramchandran
- Abstract要約: フェアネスの公理的定義を、祝福されたシェープリー値に類似して提案する。
第2の概念では、公正性はユーザ間でのみ定義され、潜在的公正性に制約されたメカニズム設計の問題につながる。
- 参考スコア(独自算出の注目度): 28.653784726361998
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Modern data aggregation often takes the form of a platform collecting data
from a network of users. More than ever, these users are now requesting that
the data they provide is protected with a guarantee of privacy. This has led to
the study of optimal data acquisition frameworks, where the optimality
criterion is typically the maximization of utility for the agent trying to
acquire the data. This involves determining how to allocate payments to users
for the purchase of their data at various privacy levels. The main goal of this
paper is to characterize a fair amount to pay users for their data at a given
privacy level. We propose an axiomatic definition of fairness, analogous to the
celebrated Shapley value. Two concepts for fairness are introduced. The first
treats the platform and users as members of a common coalition and provides a
complete description of how to divide the utility among the platform and users.
In the second concept, fairness is defined only among users, leading to a
potential fairness-constrained mechanism design problem for the platform. We
consider explicit examples involving private heterogeneous data and show how
these notions of fairness can be applied. To the best of our knowledge, these
are the first fairness concepts for data that explicitly consider privacy
constraints.
- Abstract(参考訳): 現代のデータアグリゲーションは、しばしばユーザのネットワークからデータを収集するプラットフォームの形を取る。
これまで以上に、これらのユーザーは、提供したデータがプライバシーの保証で保護されていることを要求している。
このことが最適なデータ取得フレームワークの研究につながり、最適な基準は典型的にデータを取得しようとするエージェントのユーティリティの最大化である。
これには、さまざまなプライバシレベルでデータの購入に対して、ユーザに支払いを割り当てる方法を決定することが含まれる。
本論文の主な目的は,特定のプライバシーレベルにおいて,ユーザのデータに対する公正な支払いを特徴付けることである。
フェアネスの公理的定義を、祝福されたシェープリー値に類似して提案する。
フェアネスの2つの概念が導入される。
まず、プラットフォームとユーザを共通の連合の一員として扱い、そのユーティリティをプラットフォームとユーザに分割する方法についての完全な説明を提供する。
第2のコンセプトでは、公正性はユーザ間でのみ定義され、プラットフォームの公平性に制約されたメカニズム設計の問題につながる。
個別の異種データを含む明示的な例を考察し、これらの公平性の概念をどのように適用できるかを示す。
われわれの知る限りでは、プライバシーの制約を明示的に考慮するデータに対する最初の公平性の概念だ。
関連論文リスト
- Federated Transfer Learning with Differential Privacy [21.50525027559563]
我々は、信頼された中央サーバを仮定することなく、各データセットに対するプライバシー保証を提供する、テキストフェデレーションによる差分プライバシーの概念を定式化する。
フェデレートされた差分プライバシは、確立されたローカルと中央の差分プライバシモデルの間の中間プライバシモデルであることを示す。
論文 参考訳(メタデータ) (2024-03-17T21:04:48Z) - Toward the Tradeoffs between Privacy, Fairness and Utility in Federated
Learning [10.473137837891162]
Federated Learning(FL)は、新しいプライバシー保護分散機械学習パラダイムである。
本稿では,クライアントモデルのプライバシを保護するために,プライバシ保護フェアネスFL法を提案する。
プライバシーと公正性と実用性の関係を結論付け、これらの間にはトレードオフがある。
論文 参考訳(メタデータ) (2023-11-30T02:19:35Z) - Mean Estimation Under Heterogeneous Privacy Demands [5.755004576310333]
本研究は,各ユーザが自身のプライバシレベルを設定できる平均推定の問題について考察する。
提案するアルゴリズムは,ミニマックス最適であり,ほぼ直線的な実行時間を有することを示す。
プライバシー要件が低いが異なるユーザは、すべて同じ金額で、必要以上のプライバシーを与えられる。
論文 参考訳(メタデータ) (2023-10-19T20:29:19Z) - Protecting User Privacy in Online Settings via Supervised Learning [69.38374877559423]
我々は、教師付き学習を活用する、オンラインプライバシ保護に対するインテリジェントなアプローチを設計する。
ユーザのプライバシを侵害する可能性のあるデータ収集を検出してブロックすることにより、ユーザに対してある程度のディジタルプライバシを復元することが可能になります。
論文 参考訳(メタデータ) (2023-04-06T05:20:16Z) - Position: Considerations for Differentially Private Learning with Large-Scale Public Pretraining [75.25943383604266]
大規模なWebスクレイプデータセットの使用は、差分プライバシ保存と見なすべきかどうかを疑問視する。
Webデータ上で事前訓練されたこれらのモデルを“プライベート”として公開することで、市民のプライバシーに対する信頼を意味のあるプライバシの定義として損なう可能性があることを警告します。
公的な事前学習がより普及し、強力になるにつれて、私的な学習分野への道のりを議論することで、我々は結論づける。
論文 参考訳(メタデータ) (2022-12-13T10:41:12Z) - How Do Input Attributes Impact the Privacy Loss in Differential Privacy? [55.492422758737575]
DPニューラルネットワークにおけるオブジェクトごとの規範と個人のプライバシ損失との関係について検討する。
プライバシ・ロス・インプット・サセプティビリティ(PLIS)と呼ばれる新しい指標を導入し、被験者のプライバシ・ロスを入力属性に適応させることを可能にした。
論文 参考訳(メタデータ) (2022-11-18T11:39:03Z) - Privacy Explanations - A Means to End-User Trust [64.7066037969487]
この問題に対処するために、説明可能性がどのように役立つかを検討しました。
私たちはプライバシーの説明を作成し、エンドユーザの理由と特定のデータが必要な理由を明らかにするのに役立ちました。
我々の発見は、プライバシーの説明がソフトウェアシステムの信頼性を高めるための重要なステップであることを示している。
論文 参考訳(メタデータ) (2022-10-18T09:30:37Z) - Smooth Anonymity for Sparse Graphs [69.1048938123063]
しかし、スパースデータセットを共有するという点では、差分プライバシーがプライバシのゴールドスタンダードとして浮上している。
本研究では、スムーズな$k$匿名性(スムーズな$k$匿名性)と、スムーズな$k$匿名性(スムーズな$k$匿名性)を提供する単純な大規模アルゴリズムを設計する。
論文 参考訳(メタデータ) (2022-07-13T17:09:25Z) - Equity and Privacy: More Than Just a Tradeoff [10.545898004301323]
近年の研究では、プライバシ保護データ公開が、異なる集団グループ間で異なるレベルのユーティリティを導入できることが示されている。
限界人口は、プライバシー技術から不公平に実用性を減らすのだろうか?
不等式があれば、どのように対処すればよいのか?
論文 参考訳(メタデータ) (2021-11-08T17:39:32Z) - Private Reinforcement Learning with PAC and Regret Guarantees [69.4202374491817]
エピソード強化学習(RL)のためのプライバシー保護探索ポリシーを設計する。
まず、共同微分プライバシー(JDP)の概念を用いた有意義なプライバシー定式化を提供する。
そこで我々は,強いPACと後悔境界を同時に達成し,JDP保証を享受する,プライベートな楽観主義に基づく学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-09-18T20:18:35Z) - The Challenges and Impact of Privacy Policy Comprehension [0.0]
本稿では、避けられないシンプルなプライバシーポリシーのプライバシーフレンドリさを実験的に操作した。
参加者の半数は、この透明なプライバシーポリシーさえ誤解している。
このような落とし穴を緩和するため、私たちはインフォームドコンセントの品質を向上させる設計勧告を提示します。
論文 参考訳(メタデータ) (2020-05-18T14:16:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。