論文の概要: Fairness and Privacy Guarantees in Federated Contextual Bandits
- arxiv url: http://arxiv.org/abs/2402.03531v1
- Date: Mon, 5 Feb 2024 21:38:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-07 17:50:13.884001
- Title: Fairness and Privacy Guarantees in Federated Contextual Bandits
- Title(参考訳): フェデレーション・コンテクスト・バンディットにおける公平性とプライバシー保証
- Authors: Sambhav Solanki, Shweta Jain, Sujit Gujar
- Abstract要約: 公平さを後悔してアルゴリズムの有効性をモデル化する。
Fed-FairX-LinUCB と Priv-FairX-LinUCB はともに, ほぼ最適の公平さを後悔する。
- 参考スコア(独自算出の注目度): 8.071147275221973
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper considers the contextual multi-armed bandit (CMAB) problem with
fairness and privacy guarantees in a federated environment. We consider
merit-based exposure as the desired fair outcome, which provides exposure to
each action in proportion to the reward associated. We model the algorithm's
effectiveness using fairness regret, which captures the difference between fair
optimal policy and the policy output by the algorithm. Applying fair CMAB
algorithm to each agent individually leads to fairness regret linear in the
number of agents. We propose that collaborative -- federated learning can be
more effective and provide the algorithm Fed-FairX-LinUCB that also ensures
differential privacy. The primary challenge in extending the existing privacy
framework is designing the communication protocol for communicating required
information across agents. A naive protocol can either lead to weaker privacy
guarantees or higher regret. We design a novel communication protocol that
allows for (i) Sub-linear theoretical bounds on fairness regret for
Fed-FairX-LinUCB and comparable bounds for the private counterpart,
Priv-FairX-LinUCB (relative to single-agent learning), (ii) Effective use of
privacy budget in Priv-FairX-LinUCB. We demonstrate the efficacy of our
proposed algorithm with extensive simulations-based experiments. We show that
both Fed-FairX-LinUCB and Priv-FairX-LinUCB achieve near-optimal fairness
regret.
- Abstract(参考訳): 本稿では,フェデレーション環境における公平性とプライバシ保証を伴うCMAB問題について考察する。
我々は,メリットに基づく露出を望ましい公平な結果と考え,報酬に比例して各行動に露出を与える。
このアルゴリズムの有効性を公正な最適ポリシーとアルゴリズムによるポリシー出力の違いを捉えたfairness regretを用いてモデル化する。
公平CMABアルゴリズムを各エージェントに適用すると、各エージェントの個々に公正な後悔が生じる。
我々は,協調的フェデレーション学習をより効果的にし,差分プライバシーを確保するアルゴリズムであるFed-FairX-LinUCBを提案する。
既存のプライバシーフレームワークを拡張する上で最大の課題は、エージェント間で必要な情報を通信するための通信プロトコルを設計することだ。
ナイーブなプロトコルは、プライバシの保証が弱くなるか、あるいは後悔が高まる。
実現可能な新しい通信プロトコルを設計する
(i)Fed-FairX-LinUCBとPriv-FairX-LinUCBに匹敵する正当性を後悔するサブ線形理論的境界
2Priv-FairX-LinUCBにおけるプライバシー予算の有効活用
提案アルゴリズムの有効性をシミュレーションによる実験により実証した。
Fed-FairX-LinUCB と Priv-FairX-LinUCB はともに, ほぼ最適の公平さを後悔する。
関連論文リスト
- PFGuard: A Generative Framework with Privacy and Fairness Safeguards [14.504462873398461]
PFGuardは、プライバシと公平性保護を備えた生成フレームワークである。
公正なトレーニング段階とプライベートなトレーニング段階の間のプライバシーと公正の対立のバランスを取る。
実験の結果,PFGuardは高次元データから合成データを生成することに成功した。
論文 参考訳(メタデータ) (2024-10-03T06:37:16Z) - FedFDP: Fairness-Aware Federated Learning with Differential Privacy [21.55903748640851]
Federated Learning(FL)は、データサイロの課題を克服するための、新しい機械学習パラダイムである。
我々はまず,FedFairと呼ばれるフェアネス対応のフェデレーション学習アルゴリズムを提案する。
次に、公正性、プライバシ保護、モデルパフォーマンスのトレードオフに対処するため、差分プライバシー保護を導入し、FedFDPアルゴリズムを形成する。
論文 参考訳(メタデータ) (2024-02-25T08:35:21Z) - Privacy for Fairness: Information Obfuscation for Fair Representation
Learning with Local Differential Privacy [26.307780067808565]
本研究では,プライバシと公正性の相互作用を包括的に検証するための理論的枠組みを提案する。
公平な表現学習のための情報ボトルネック(IB)に基づく情報難読化手法(LDP)を開発し,解析する。
MLにおける公平性に関する実証的研究とは対照的に,符号化過程における LDP のランダム化は,学習された表現の公平性を高めることができることを示す。
論文 参考訳(メタデータ) (2024-02-16T06:35:10Z) - Toward the Tradeoffs between Privacy, Fairness and Utility in Federated
Learning [10.473137837891162]
Federated Learning(FL)は、新しいプライバシー保護分散機械学習パラダイムである。
本稿では,クライアントモデルのプライバシを保護するために,プライバシ保護フェアネスFL法を提案する。
プライバシーと公正性と実用性の関係を結論付け、これらの間にはトレードオフがある。
論文 参考訳(メタデータ) (2023-11-30T02:19:35Z) - Incentivized Communication for Federated Bandits [67.4682056391551]
我々は,サーバがインセンティブを提供することでクライアントにデータを共有する動機付けを行う,フェデレートされた盗賊に対するインセンティブ付きコミュニケーション問題を導入する。
本稿では,実証可能な通信とインセンティブコスト保証により,ほぼ最適の後悔を実現する,最初のインセンティブ付き通信プロトコルであるInc-FedUCBを提案する。
論文 参考訳(メタデータ) (2023-09-21T00:59:20Z) - Theoretically Principled Federated Learning for Balancing Privacy and
Utility [61.03993520243198]
モデルパラメータを歪ませることでプライバシを保護する保護機構の一般学習フレームワークを提案する。
フェデレートされた学習における各コミュニケーションラウンドにおいて、各クライアント上の各モデルパラメータに対して、パーソナライズされたユーティリティプライバシトレードオフを実現することができる。
論文 参考訳(メタデータ) (2023-05-24T13:44:02Z) - On Differentially Private Federated Linear Contextual Bandits [9.51828574518325]
我々は、差分プライバシーの下で、クロスサイロフェデレーション線形文脈帯域問題(LCB)を考える。
現状の3つの課題は, (i) 主張されたプライバシ保護の失敗, (ii) ノイズの計算ミスによる不正確な後悔,である。
我々は,信頼されたサーバを使わずに,アルゴリズムがほぼ最適であることを示す。
論文 参考訳(メタデータ) (2023-02-27T16:47:49Z) - Privacy-Preserving Joint Edge Association and Power Optimization for the
Internet of Vehicles via Federated Multi-Agent Reinforcement Learning [74.53077322713548]
プライバシ保護型共同エッジアソシエーションと電力配分問題について検討する。
提案されたソリューションは、最先端のソリューションよりも高いプライバシレベルを維持しながら、魅力的なトレードオフにぶつかる。
論文 参考訳(メタデータ) (2023-01-26T10:09:23Z) - Is Vertical Logistic Regression Privacy-Preserving? A Comprehensive
Privacy Analysis and Beyond [57.10914865054868]
垂直ロジスティック回帰(VLR)をミニバッチ降下勾配で訓練した。
我々は、オープンソースのフェデレーション学習フレームワークのクラスにおいて、VLRの包括的で厳密なプライバシー分析を提供する。
論文 参考訳(メタデータ) (2022-07-19T05:47:30Z) - Privacy Amplification via Shuffling for Linear Contextual Bandits [51.94904361874446]
ディファレンシャルプライバシ(DP)を用いた文脈線形バンディット問題について検討する。
プライバシのシャッフルモデルを利用して,JDP と LDP のプライバシ/ユーティリティトレードオフを実現することができることを示す。
以上の結果から,ローカルプライバシを保ちながらシャッフルモデルを活用することで,JDPとDPのトレードオフを得ることが可能であることが示唆された。
論文 参考訳(メタデータ) (2021-12-11T15:23:28Z) - Private Reinforcement Learning with PAC and Regret Guarantees [69.4202374491817]
エピソード強化学習(RL)のためのプライバシー保護探索ポリシーを設計する。
まず、共同微分プライバシー(JDP)の概念を用いた有意義なプライバシー定式化を提供する。
そこで我々は,強いPACと後悔境界を同時に達成し,JDP保証を享受する,プライベートな楽観主義に基づく学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-09-18T20:18:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。