論文の概要: Policy-Based Federated Learning
- arxiv url: http://arxiv.org/abs/2003.06612v5
- Date: Fri, 19 Feb 2021 02:09:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-23 20:37:28.179284
- Title: Policy-Based Federated Learning
- Title(参考訳): 政策に基づく連合学習
- Authors: Kleomenis Katevas, Eugene Bagdasaryan, Jason Waterman, Mohamad Mounir
Safadieh, Eleanor Birrell, Hamed Haddadi, Deborah Estrin
- Abstract要約: PoliFLは、フェデレーション学習のための異種プライバシーポリシーをサポートする、分散化されたエッジベースのフレームワークである。
携帯電話が収集したセンシティブなユーザデータを用いてモデルをトレーニングする3つのユースケースについて,本システムの評価を行った。
- 参考スコア(独自算出の注目度): 7.565984098249042
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper we present PoliFL, a decentralized, edge-based framework that
supports heterogeneous privacy policies for federated learning. We evaluate our
system on three use cases that train models with sensitive user data collected
by mobile phones - predictive text, image classification, and notification
engagement prediction - on a Raspberry Pi edge device. We find that PoliFL is
able to perform accurate model training and inference within reasonable
resource and time budgets while also enforcing heterogeneous privacy policies.
- Abstract(参考訳): 本稿では,フェデレーション学習のための異種プライバシーポリシをサポートする,エッジベースの分散フレームワークであるpoliflを提案する。
raspberry pi edgeデバイス上で,携帯電話で収集したセンシティブなユーザデータのモデル – 予測テキスト,画像分類,通知エンゲージメント予測 – をトレーニングする3つのユースケースについて評価した。
PoliFLは、適切なリソースと時間予算内で正確なモデルトレーニングと推論を行うと同時に、不均一なプライバシポリシを実施することができる。
関連論文リスト
- Private Federated Learning In Real World Application -- A Case Study [15.877427073033184]
本稿では,エッジデバイス上でのPFL(Private Federated Learning)を用いた機械学習モデルトレーニングの実装について述べる。
本稿では,ユーザのプライベートデータを用いたモデルトレーニングの課題に対処するために,PFLを用いた新しいフレームワークを提案する。
このフレームワークは、ユーザーデータが個々のデバイスに留まることを保証する。
論文 参考訳(メタデータ) (2025-02-06T23:38:50Z) - TAPFed: Threshold Secure Aggregation for Privacy-Preserving Federated Learning [16.898842295300067]
フェデレートラーニング(Federated Learning)は、複数のパーティが個人データを公開せずに機械学習モデルを協調的にトレーニングできるようにすることで、プライバシを高めるコンピューティングパラダイムである。
従来のフェデレートされた学習プラットフォームは、勾配の交換によるプライバシーリークによってプライバシーを保証できない。
本稿では,悪意あるアクターを持つ複数の分散アグリゲータのコンテキストにおいて,プライバシ保護のためのフェデレーション学習を実現するためのTAPFedを提案する。
論文 参考訳(メタデータ) (2025-01-09T08:24:10Z) - Fine-Tuning Language Models with Reward Learning on Policy [68.70065254564642]
人間からのフィードバックからの強化学習(RLHF)は、大きな言語モデル(LLM)を人間の好みに合わせる効果的なアプローチとして現れている。
その人気にもかかわらず、(固定された)報酬モデルが不正確な流通に悩まされることがある。
本稿では、政策サンプルを用いて報酬モデルを洗練し、流通を継続する、教師なしのフレームワークであるポリシーに関する報酬学習(RLP)を提案する。
論文 参考訳(メタデータ) (2024-03-28T10:02:10Z) - Using Decentralized Aggregation for Federated Learning with Differential
Privacy [0.32985979395737774]
フェデレートラーニング(FL)は、データをローカルノードに保持することで、ある程度のプライバシーを提供する。
本研究は、ベンチマークデータセットを用いて、差分プライバシー(DP)を用いたFL実験環境をデプロイする。
論文 参考訳(メタデータ) (2023-11-27T17:02:56Z) - Content Popularity Prediction in Fog-RANs: A Clustered Federated
Learning Based Approach [66.31587753595291]
本稿では,ローカルユーザとモバイルユーザの両面からコンテンツの人気度を統合した,モビリティに配慮した新しい人気予測ポリシーを提案する。
ローカルユーザにとって、コンテンツの人気は、ローカルユーザやコンテンツの隠された表現を学習することによって予測される。
モバイルユーザーにとって、コンテンツの人気はユーザー好みの学習によって予測される。
論文 参考訳(メタデータ) (2022-06-13T03:34:00Z) - Privacy-Constrained Policies via Mutual Information Regularized Policy Gradients [54.98496284653234]
報酬を最大化しつつ、行動を通じて特定の機密状態変数の開示を最小限に抑えながら、報酬を最大化する政策を訓練する課題を考察する。
本稿では, 感性状態と行動の相互情報に基づく正則化器を導入することで, この問題を解決する。
プライバシ制約のあるポリシーを最適化するためのモデルベース推定器を開発した。
論文 参考訳(メタデータ) (2020-12-30T03:22:35Z) - Privacy-preserving Decentralized Aggregation for Federated Learning [3.9323226496740733]
フェデレーション学習は、複数のリージョンにまたがる分散データを学習するための有望なフレームワークである。
我々は,連合学習のためのプライバシ保存型分散集約プロトコルを開発した。
9 と 15 の分散サイトを持つベンチマークデータセットを用いて,画像分類と次単語予測のアルゴリズムの評価を行った。
論文 参考訳(メタデータ) (2020-12-13T23:45:42Z) - Voting-based Approaches For Differentially Private Federated Learning [87.2255217230752]
この研究はPapernotらによる非フェデレーションプライバシ学習の知識伝達にインスパイアされている。
我々は,各局所モデルから返されるデータラベル間で投票を行うことで,勾配を平均化する代わりに2つの新しいDPFLスキームを設計する。
我々のアプローチはDPFLの最先端技術に対するプライバシーとユーティリティのトレードオフを大幅に改善します。
論文 参考訳(メタデータ) (2020-10-09T23:55:19Z) - FedOCR: Communication-Efficient Federated Learning for Scene Text
Recognition [76.26472513160425]
本研究では、分散化されたデータセットを用いて、ロバストなシーンテキスト認識器を訓練する方法について研究する。
FedOCRをエンドデバイスにデプロイするのに適したものにするために、軽量モデルとハッシュ技術の使用を含む2つの改善を行った。
論文 参考訳(メタデータ) (2020-07-22T14:30:50Z) - Towards Differentially Private Text Representations [52.64048365919954]
信頼できないサーバ環境下で新しいディープラーニングフレームワークを開発する。
乱数化モジュールに対して、プライバシーパラメータ$epsilon$の精度への影響を低減するために、新しいローカル微分プライベート(LDP)プロトコルを提案する。
分析と実験により、我々のフレームワークは、非プライベートなフレームワークや既存のLDPプロトコルと同等またはそれ以上のパフォーマンスを提供することが示された。
論文 参考訳(メタデータ) (2020-06-25T04:42:18Z) - Distributionally Robust Batch Contextual Bandits [20.667213458836734]
歴史的観測データを用いた政策学習は、広く応用されている重要な問題である。
既存の文献は、学習方針が展開される将来の環境が過去の環境と同じである、という決定的な前提に基づいている。
本稿では、この仮定を引き上げ、不完全な観測データを用いて、分布的に堅牢なポリシーを学習することを目的とする。
論文 参考訳(メタデータ) (2020-06-10T03:11:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。