論文の概要: The Fair Value of Data Under Heterogeneous Privacy Constraints in
Federated Learning
- arxiv url: http://arxiv.org/abs/2301.13336v2
- Date: Sun, 4 Feb 2024 21:32:55 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-07 07:03:19.995213
- Title: The Fair Value of Data Under Heterogeneous Privacy Constraints in
Federated Learning
- Title(参考訳): フェデレーション学習における不均一なプライバシー制約下におけるデータの価値
- Authors: Justin Kang, Ramtin Pedarsani, Kannan Ramchandran
- Abstract要約: 本稿では,公正性の公理的定義に基づいて,ユーザのプライバシレベルでデータを補償するtextitfairの量を提案する。
また、ユーザのためのプライバシレベルオプションを備えたプラットフォームに対して、不均一なフェデレーション付き学習問題を定式化します。
- 参考スコア(独自算出の注目度): 26.53734856637336
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Modern data aggregation often involves a platform collecting data from a
network of users with various privacy options. Platforms must solve the problem
of how to allocate incentives to users to convince them to share their data.
This paper puts forth an idea for a \textit{fair} amount to compensate users
for their data at a given privacy level based on an axiomatic definition of
fairness, along the lines of the celebrated Shapley value. To the best of our
knowledge, these are the first fairness concepts for data that explicitly
consider privacy constraints. We also formulate a heterogeneous federated
learning problem for the platform with privacy level options for users. By
studying this problem, we investigate the amount of compensation users receive
under fair allocations with different privacy levels, amounts of data, and
degrees of heterogeneity. We also discuss what happens when the platform is
forced to design fair incentives. Under certain conditions we find that when
privacy sensitivity is low, the platform will set incentives to ensure that it
collects all the data with the lowest privacy options. When the privacy
sensitivity is above a given threshold, the platform will provide no incentives
to users. Between these two extremes, the platform will set the incentives so
some fraction of the users chooses the higher privacy option and the others
chooses the lower privacy option.
- Abstract(参考訳): 現代のデータアグリゲーションは、さまざまなプライバシオプションを持つユーザのネットワークからデータを収集するプラットフォームを含むことが多い。
プラットフォームは、ユーザにインセンティブを割り当ててデータ共有を説得する方法という問題を解決する必要がある。
本稿では,あるプライバシーレベルでユーザのデータを補償する‘textit{fair}量’のアイデアを,祝福されたShapley値の行に沿って,公正性の公理的定義に基づいて提案する。
われわれの知る限りでは、プライバシーの制約を明示的に考慮するデータに対する最初の公平性の概念だ。
また,ユーザに対してプライバシレベルのオプションを備えたプラットフォームに対して,ヘテロジニアスなフェデレーション学習問題を定式化する。
そこで本研究では,プライバシレベル,データ量,不均一度などの異なる公平なアロケーションの下でユーザが受け取る補償の量について検討する。
また、プラットフォームが公正なインセンティブを設計せざるを得なくなったらどうなるかについても議論する。
特定の条件下では、プライバシーの感度が低い場合、プラットフォームは、最も低いプライバシーオプションですべてのデータを収集することを保証するインセンティブを設定します。
プライバシーの感度が一定の閾値を超えている場合、プラットフォームはユーザにインセンティブを提供しない。
この2つの極端さの間に、プラットフォームはインセンティブを設定するので、一部のユーザーがより高いプライバシーオプションを選択し、他のユーザーが低いプライバシーオプションを選択する。
関連論文リスト
- Federated Transfer Learning with Differential Privacy [21.50525027559563]
我々は、信頼された中央サーバを仮定することなく、各データセットに対するプライバシー保証を提供する、テキストフェデレーションによる差分プライバシーの概念を定式化する。
フェデレートされた差分プライバシは、確立されたローカルと中央の差分プライバシモデルの間の中間プライバシモデルであることを示す。
論文 参考訳(メタデータ) (2024-03-17T21:04:48Z) - Toward the Tradeoffs between Privacy, Fairness and Utility in Federated
Learning [10.473137837891162]
Federated Learning(FL)は、新しいプライバシー保護分散機械学習パラダイムである。
本稿では,クライアントモデルのプライバシを保護するために,プライバシ保護フェアネスFL法を提案する。
プライバシーと公正性と実用性の関係を結論付け、これらの間にはトレードオフがある。
論文 参考訳(メタデータ) (2023-11-30T02:19:35Z) - Mean Estimation Under Heterogeneous Privacy Demands [5.755004576310333]
本研究は,各ユーザが自身のプライバシレベルを設定できる平均推定の問題について考察する。
提案するアルゴリズムは,ミニマックス最適であり,ほぼ直線的な実行時間を有することを示す。
プライバシー要件が低いが異なるユーザは、すべて同じ金額で、必要以上のプライバシーを与えられる。
論文 参考訳(メタデータ) (2023-10-19T20:29:19Z) - Protecting User Privacy in Online Settings via Supervised Learning [69.38374877559423]
我々は、教師付き学習を活用する、オンラインプライバシ保護に対するインテリジェントなアプローチを設計する。
ユーザのプライバシを侵害する可能性のあるデータ収集を検出してブロックすることにより、ユーザに対してある程度のディジタルプライバシを復元することが可能になります。
論文 参考訳(メタデータ) (2023-04-06T05:20:16Z) - Position: Considerations for Differentially Private Learning with Large-Scale Public Pretraining [75.25943383604266]
大規模なWebスクレイプデータセットの使用は、差分プライバシ保存と見なすべきかどうかを疑問視する。
Webデータ上で事前訓練されたこれらのモデルを“プライベート”として公開することで、市民のプライバシーに対する信頼を意味のあるプライバシの定義として損なう可能性があることを警告します。
公的な事前学習がより普及し、強力になるにつれて、私的な学習分野への道のりを議論することで、我々は結論づける。
論文 参考訳(メタデータ) (2022-12-13T10:41:12Z) - How Do Input Attributes Impact the Privacy Loss in Differential Privacy? [55.492422758737575]
DPニューラルネットワークにおけるオブジェクトごとの規範と個人のプライバシ損失との関係について検討する。
プライバシ・ロス・インプット・サセプティビリティ(PLIS)と呼ばれる新しい指標を導入し、被験者のプライバシ・ロスを入力属性に適応させることを可能にした。
論文 参考訳(メタデータ) (2022-11-18T11:39:03Z) - Privacy Explanations - A Means to End-User Trust [64.7066037969487]
この問題に対処するために、説明可能性がどのように役立つかを検討しました。
私たちはプライバシーの説明を作成し、エンドユーザの理由と特定のデータが必要な理由を明らかにするのに役立ちました。
我々の発見は、プライバシーの説明がソフトウェアシステムの信頼性を高めるための重要なステップであることを示している。
論文 参考訳(メタデータ) (2022-10-18T09:30:37Z) - Smooth Anonymity for Sparse Graphs [69.1048938123063]
しかし、スパースデータセットを共有するという点では、差分プライバシーがプライバシのゴールドスタンダードとして浮上している。
本研究では、スムーズな$k$匿名性(スムーズな$k$匿名性)と、スムーズな$k$匿名性(スムーズな$k$匿名性)を提供する単純な大規模アルゴリズムを設計する。
論文 参考訳(メタデータ) (2022-07-13T17:09:25Z) - Equity and Privacy: More Than Just a Tradeoff [10.545898004301323]
近年の研究では、プライバシ保護データ公開が、異なる集団グループ間で異なるレベルのユーティリティを導入できることが示されている。
限界人口は、プライバシー技術から不公平に実用性を減らすのだろうか?
不等式があれば、どのように対処すればよいのか?
論文 参考訳(メタデータ) (2021-11-08T17:39:32Z) - Private Reinforcement Learning with PAC and Regret Guarantees [69.4202374491817]
エピソード強化学習(RL)のためのプライバシー保護探索ポリシーを設計する。
まず、共同微分プライバシー(JDP)の概念を用いた有意義なプライバシー定式化を提供する。
そこで我々は,強いPACと後悔境界を同時に達成し,JDP保証を享受する,プライベートな楽観主義に基づく学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-09-18T20:18:35Z) - The Challenges and Impact of Privacy Policy Comprehension [0.0]
本稿では、避けられないシンプルなプライバシーポリシーのプライバシーフレンドリさを実験的に操作した。
参加者の半数は、この透明なプライバシーポリシーさえ誤解している。
このような落とし穴を緩和するため、私たちはインフォームドコンセントの品質を向上させる設計勧告を提示します。
論文 参考訳(メタデータ) (2020-05-18T14:16:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。