論文の概要: The Fair Value of Data Under Heterogeneous Privacy Constraints in
Federated Learning
- arxiv url: http://arxiv.org/abs/2301.13336v2
- Date: Sun, 4 Feb 2024 21:32:55 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-07 07:03:19.995213
- Title: The Fair Value of Data Under Heterogeneous Privacy Constraints in
Federated Learning
- Title(参考訳): フェデレーション学習における不均一なプライバシー制約下におけるデータの価値
- Authors: Justin Kang, Ramtin Pedarsani, Kannan Ramchandran
- Abstract要約: 本稿では,公正性の公理的定義に基づいて,ユーザのプライバシレベルでデータを補償するtextitfairの量を提案する。
また、ユーザのためのプライバシレベルオプションを備えたプラットフォームに対して、不均一なフェデレーション付き学習問題を定式化します。
- 参考スコア(独自算出の注目度): 26.53734856637336
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Modern data aggregation often involves a platform collecting data from a
network of users with various privacy options. Platforms must solve the problem
of how to allocate incentives to users to convince them to share their data.
This paper puts forth an idea for a \textit{fair} amount to compensate users
for their data at a given privacy level based on an axiomatic definition of
fairness, along the lines of the celebrated Shapley value. To the best of our
knowledge, these are the first fairness concepts for data that explicitly
consider privacy constraints. We also formulate a heterogeneous federated
learning problem for the platform with privacy level options for users. By
studying this problem, we investigate the amount of compensation users receive
under fair allocations with different privacy levels, amounts of data, and
degrees of heterogeneity. We also discuss what happens when the platform is
forced to design fair incentives. Under certain conditions we find that when
privacy sensitivity is low, the platform will set incentives to ensure that it
collects all the data with the lowest privacy options. When the privacy
sensitivity is above a given threshold, the platform will provide no incentives
to users. Between these two extremes, the platform will set the incentives so
some fraction of the users chooses the higher privacy option and the others
chooses the lower privacy option.
- Abstract(参考訳): 現代のデータアグリゲーションは、さまざまなプライバシオプションを持つユーザのネットワークからデータを収集するプラットフォームを含むことが多い。
プラットフォームは、ユーザにインセンティブを割り当ててデータ共有を説得する方法という問題を解決する必要がある。
本稿では,あるプライバシーレベルでユーザのデータを補償する‘textit{fair}量’のアイデアを,祝福されたShapley値の行に沿って,公正性の公理的定義に基づいて提案する。
われわれの知る限りでは、プライバシーの制約を明示的に考慮するデータに対する最初の公平性の概念だ。
また,ユーザに対してプライバシレベルのオプションを備えたプラットフォームに対して,ヘテロジニアスなフェデレーション学習問題を定式化する。
そこで本研究では,プライバシレベル,データ量,不均一度などの異なる公平なアロケーションの下でユーザが受け取る補償の量について検討する。
また、プラットフォームが公正なインセンティブを設計せざるを得なくなったらどうなるかについても議論する。
特定の条件下では、プライバシーの感度が低い場合、プラットフォームは、最も低いプライバシーオプションですべてのデータを収集することを保証するインセンティブを設定します。
プライバシーの感度が一定の閾値を超えている場合、プラットフォームはユーザにインセンティブを提供しない。
この2つの極端さの間に、プラットフォームはインセンティブを設定するので、一部のユーザーがより高いプライバシーオプションを選択し、他のユーザーが低いプライバシーオプションを選択する。
関連論文リスト
- Group Decision-Making among Privacy-Aware Agents [2.88268082568407]
個人のプライバシーを維持し、効果的な社会学習を可能にすることはどちらも重要なデシダータであるが、基本的には互いに相反しているように見える。
差分プライバシー(DP)に基づく厳密な統計的保証を用いて情報漏洩を制御する。
その結果,グループ意思決定の結果の質,学習精度,通信コスト,エージェントが備えているプライバシー保護の水準の両面でのトレードオフの性質が明らかになった。
論文 参考訳(メタデータ) (2024-02-13T01:38:01Z) - Toward the Tradeoffs between Privacy, Fairness and Utility in Federated
Learning [10.473137837891162]
Federated Learning(FL)は、新しいプライバシー保護分散機械学習パラダイムである。
本稿では,クライアントモデルのプライバシを保護するために,プライバシ保護フェアネスFL法を提案する。
プライバシーと公正性と実用性の関係を結論付け、これらの間にはトレードオフがある。
論文 参考訳(メタデータ) (2023-11-30T02:19:35Z) - Mean Estimation Under Heterogeneous Privacy Demands [5.755004576310333]
本研究は,各ユーザが自身のプライバシレベルを設定できる平均推定の問題について考察する。
提案するアルゴリズムは,ミニマックス最適であり,ほぼ直線的な実行時間を有することを示す。
プライバシー要件が低いが異なるユーザは、すべて同じ金額で、必要以上のプライバシーを与えられる。
論文 参考訳(メタデータ) (2023-10-19T20:29:19Z) - Protecting User Privacy in Online Settings via Supervised Learning [69.38374877559423]
我々は、教師付き学習を活用する、オンラインプライバシ保護に対するインテリジェントなアプローチを設計する。
ユーザのプライバシを侵害する可能性のあるデータ収集を検出してブロックすることにより、ユーザに対してある程度のディジタルプライバシを復元することが可能になります。
論文 参考訳(メタデータ) (2023-04-06T05:20:16Z) - Considerations for Differentially Private Learning with Large-Scale
Public Pretraining [58.75893136929649]
大規模なWebスクレイプデータセットの使用は、差分プライバシ保存と見なすべきかどうかを疑問視する。
Webデータ上で事前訓練されたこれらのモデルを“プライベート”として公開することで、市民のプライバシーに対する信頼を意味のあるプライバシの定義として損なう可能性があることを警告します。
公的な事前学習がより普及し、強力になるにつれて、私的な学習分野への道のりを議論することで、我々は結論づける。
論文 参考訳(メタデータ) (2022-12-13T10:41:12Z) - How Do Input Attributes Impact the Privacy Loss in Differential Privacy? [55.492422758737575]
DPニューラルネットワークにおけるオブジェクトごとの規範と個人のプライバシ損失との関係について検討する。
プライバシ・ロス・インプット・サセプティビリティ(PLIS)と呼ばれる新しい指標を導入し、被験者のプライバシ・ロスを入力属性に適応させることを可能にした。
論文 参考訳(メタデータ) (2022-11-18T11:39:03Z) - Privacy Explanations - A Means to End-User Trust [64.7066037969487]
この問題に対処するために、説明可能性がどのように役立つかを検討しました。
私たちはプライバシーの説明を作成し、エンドユーザの理由と特定のデータが必要な理由を明らかにするのに役立ちました。
我々の発見は、プライバシーの説明がソフトウェアシステムの信頼性を高めるための重要なステップであることを示している。
論文 参考訳(メタデータ) (2022-10-18T09:30:37Z) - Smooth Anonymity for Sparse Binary Matrices [84.60886611165573]
この作業では、スパースデータセット全体を第三者とプライベートに操作し、共有することを目的としています。
実際、差分プライバシーは、プライバシの金の標準として現れていますが、スパースデータセットの共有に関しては、主要な結果の1つとして、偏微分プライベートメカニズムが極めて弱いプライバシ保証を持つ運命にあることを証明しています。
我々は、スムーズな$k$匿名性を示し、スムーズな$k$匿名性を提供する単純なアルゴリズムを設計する。
論文 参考訳(メタデータ) (2022-07-13T17:09:25Z) - Equity and Privacy: More Than Just a Tradeoff [10.545898004301323]
近年の研究では、プライバシ保護データ公開が、異なる集団グループ間で異なるレベルのユーティリティを導入できることが示されている。
限界人口は、プライバシー技術から不公平に実用性を減らすのだろうか?
不等式があれば、どのように対処すればよいのか?
論文 参考訳(メタデータ) (2021-11-08T17:39:32Z) - Private Reinforcement Learning with PAC and Regret Guarantees [69.4202374491817]
エピソード強化学習(RL)のためのプライバシー保護探索ポリシーを設計する。
まず、共同微分プライバシー(JDP)の概念を用いた有意義なプライバシー定式化を提供する。
そこで我々は,強いPACと後悔境界を同時に達成し,JDP保証を享受する,プライベートな楽観主義に基づく学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-09-18T20:18:35Z) - The Challenges and Impact of Privacy Policy Comprehension [0.0]
本稿では、避けられないシンプルなプライバシーポリシーのプライバシーフレンドリさを実験的に操作した。
参加者の半数は、この透明なプライバシーポリシーさえ誤解している。
このような落とし穴を緩和するため、私たちはインフォームドコンセントの品質を向上させる設計勧告を提示します。
論文 参考訳(メタデータ) (2020-05-18T14:16:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。