論文の概要: Private Federated Learning In Real World Application -- A Case Study
- arxiv url: http://arxiv.org/abs/2502.04565v2
- Date: Mon, 10 Feb 2025 18:28:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-11 14:32:37.936230
- Title: Private Federated Learning In Real World Application -- A Case Study
- Title(参考訳): 実世界の応用におけるプライベート・フェデレーション・ラーニング--ケーススタディ
- Authors: An Ji, Bortik Bandyopadhyay, Congzheng Song, Natarajan Krishnaswami, Prabal Vashisht, Rigel Smiroldo, Isabel Litton, Sayantan Mahinder, Mona Chitnis, Andrew W Hill,
- Abstract要約: 本稿では,エッジデバイス上でのPFL(Private Federated Learning)を用いた機械学習モデルトレーニングの実装について述べる。
本稿では,ユーザのプライベートデータを用いたモデルトレーニングの課題に対処するために,PFLを用いた新しいフレームワークを提案する。
このフレームワークは、ユーザーデータが個々のデバイスに留まることを保証する。
- 参考スコア(独自算出の注目度): 15.877427073033184
- License:
- Abstract: This paper presents an implementation of machine learning model training using private federated learning (PFL) on edge devices. We introduce a novel framework that uses PFL to address the challenge of training a model using users' private data. The framework ensures that user data remain on individual devices, with only essential model updates transmitted to a central server for aggregation with privacy guarantees. We detail the architecture of our app selection model, which incorporates a neural network with attention mechanisms and ambiguity handling through uncertainty management. Experiments conducted through off-line simulations and on device training demonstrate the feasibility of our approach in real-world scenarios. Our results show the potential of PFL to improve the accuracy of an app selection model by adapting to changes in user behavior over time, while adhering to privacy standards. The insights gained from this study are important for industries looking to implement PFL, offering a robust strategy for training a predictive model directly on edge devices while ensuring user data privacy.
- Abstract(参考訳): 本稿では,エッジデバイス上でのPFL(Private Federated Learning)を用いた機械学習モデルトレーニングの実装について述べる。
本稿では,ユーザのプライベートデータを用いたモデルトレーニングの課題に対処するために,PFLを用いた新しいフレームワークを提案する。
このフレームワークは、ユーザーデータが個々のデバイスに留まることを保証する。
我々は、注意機構と不確実性管理によるあいまいさ処理を備えたニューラルネットワークを組み込んだアプリ選択モデルのアーキテクチャを詳述する。
オフラインシミュレーションとデバイストレーニングによる実験は、実世界のシナリオにおける我々のアプローチの実現可能性を示している。
以上の結果から,プライバシ標準に準拠しつつ,ユーザの行動の変化に時間とともに適応することで,アプリ選択モデルの精度を向上させることができる可能性が示唆された。
この研究から得られた洞察は、PFLの実装を目指す業界にとって重要であり、ユーザデータのプライバシを確保しつつ、エッジデバイス上で予測モデルをトレーニングする堅牢な戦略を提供する。
関連論文リスト
- Tunable Soft Prompts are Messengers in Federated Learning [55.924749085481544]
フェデレートラーニング(FL)は、複数の参加者が分散データソースを使用して機械学習モデルを協調的にトレーニングすることを可能にする。
FLにおけるモデルプライバシ保護の欠如は無視できない課題となっている。
そこで本研究では,ソフトプロンプトによって参加者間の情報交換を実現する新しいFLトレーニング手法を提案する。
論文 参考訳(メタデータ) (2023-11-12T11:01:10Z) - PRIOR: Personalized Prior for Reactivating the Information Overlooked in
Federated Learning [16.344719695572586]
各クライアントのグローバルモデルにパーソナライズされた事前知識を注入する新しいスキームを提案する。
提案したアプローチの中心は,Bregman Divergence (pFedBreD) による PFL フレームワークである。
提案手法は5つのデータセット上での最先端のパフォーマンスに到達し、8つのベンチマークで最大3.5%性能を向上する。
論文 参考訳(メタデータ) (2023-10-13T15:21:25Z) - Privacy Side Channels in Machine Learning Systems [87.53240071195168]
プライバシサイドチャネルは、システムレベルのコンポーネントを利用してプライベート情報を抽出する攻撃である。
例えば、差分プライベートなトレーニングを適用する前にトレーニングデータを重複させることで、保証可能なプライバシ保証を完全に無効にするサイドチャネルが生成されることを示す。
さらに,学習データセットに含まれる秘密鍵を抽出するために,言語モデルを学習データ再生からブロックするシステムを利用することを示す。
論文 参考訳(メタデータ) (2023-09-11T16:49:05Z) - Can Public Large Language Models Help Private Cross-device Federated Learning? [58.05449579773249]
言語モデルのプライベート・フェデレーション・ラーニング(FL)について検討する。
公開データは、大小両方の言語モデルのプライバシーとユーティリティのトレードオフを改善するために使われてきた。
提案手法は,プライベートなデータ分布に近い公開データをサンプリングするための理論的基盤を持つ新しい分布マッチングアルゴリズムである。
論文 参考訳(メタデータ) (2023-05-20T07:55:58Z) - Federated Privacy-preserving Collaborative Filtering for On-Device Next
App Prediction [52.16923290335873]
本稿では,モバイルデバイス使用時の次のアプリの起動を予測するための新しいSeqMFモデルを提案する。
古典行列分解モデルの構造を修正し、学習手順を逐次学習に更新する。
提案手法のもうひとつの要素は,ユーザからリモートサーバへの送信データの保護を保証する,新たなプライバシメカニズムである。
論文 参考訳(メタデータ) (2023-02-05T10:29:57Z) - Split Federated Learning on Micro-controllers: A Keyword Spotting
Showcase [1.4794135558227681]
フェデレートラーニング(Federated Learning)は,ユーザの生データをサーバに収集することなく,ローカルでモデルをトレーニングする,プライベートラーニングスキームとして提案されている。
本研究では,Arduinoボード上に単純なSFLフレームワークを実装し,90%以上の精度でキーワードスポッティングアプリケーションのための中国語桁音声データセットの正当性を検証した。
英数字音声データセットでは、SFL実装は最先端のFL実装と比較して13.89%高い精度を実現している。
論文 参考訳(メタデータ) (2022-10-04T23:42:45Z) - Applied Federated Learning: Architectural Design for Robust and
Efficient Learning in Privacy Aware Settings [0.8454446648908585]
古典的な機械学習パラダイムは、中央にユーザーデータの集約を必要とする。
データの集中化は、内部および外部のセキュリティインシデントのリスクを高めることを含むリスクを引き起こす。
差分プライバシーによるフェデレーション学習は、サーバ側の集中化落とし穴を避けるように設計されている。
論文 参考訳(メタデータ) (2022-06-02T00:30:04Z) - Federated Learning with Noisy User Feedback [26.798303045807508]
フェデレートラーニング(FL)は、センシティブなユーザデータを使用してエッジデバイス上でMLモデルをトレーニングする方法として登場した。
本稿では,肯定的および否定的なユーザフィードバックを用いたFLモデルのトレーニング戦略を提案する。
本研究では,本手法が自己学習ベースラインよりも大幅に向上し,完全教師付きモデルに近い性能が得られることを示す。
論文 参考訳(メタデータ) (2022-05-06T09:14:24Z) - Personalization Improves Privacy-Accuracy Tradeoffs in Federated
Optimization [57.98426940386627]
局所的な学習とプライベートな集中学習の協調は、総合的に有用であり、精度とプライバシのトレードオフを改善していることを示す。
合成および実世界のデータセットに関する実験により理論的結果について述べる。
論文 参考訳(メタデータ) (2022-02-10T20:44:44Z) - RoFL: Attestable Robustness for Secure Federated Learning [59.63865074749391]
フェデレートラーニング(Federated Learning)により、多数のクライアントが、プライベートデータを共有することなく、ジョイントモデルをトレーニングできる。
クライアントのアップデートの機密性を保証するため、フェデレートラーニングシステムはセキュアなアグリゲーションを採用している。
悪意のあるクライアントに対する堅牢性を向上させるセキュアなフェデレート学習システムであるRoFLを提案する。
論文 参考訳(メタデータ) (2021-07-07T15:42:49Z) - Training Production Language Models without Memorizing User Data [7.004279935788177]
本稿では,Federated Learning (FL) を用いて学習した最初のコンシューマスケール次世代単語予測(NWP)モデルを提案する。
本研究では、FLにおける生産型ニューラルネットワークのトレーニングのための、微分プライベートなメカニズムの展開を実演する。
論文 参考訳(メタデータ) (2020-09-21T17:12:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。