論文の概要: A Generative Framework for Personalized Learning and Estimation: Theory,
Algorithms, and Privacy
- arxiv url: http://arxiv.org/abs/2207.01771v1
- Date: Tue, 5 Jul 2022 02:18:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-07 04:00:01.119314
- Title: A Generative Framework for Personalized Learning and Estimation: Theory,
Algorithms, and Privacy
- Title(参考訳): パーソナライズされた学習と推定のための生成フレームワーク--理論、アルゴリズム、プライバシー
- Authors: Kaan Ozkara, Antonious M. Girgis, Deepesh Data, Suhas Diggavi
- Abstract要約: 我々は、いくつかの異なるアルゴリズムを統一し、新しいアルゴリズムを提案することができる生成フレームワークを開発した。
次に、生成フレームワークを学習に使用し、既知のパーソナライズされたFLアルゴリズムを統一し、新しいFLアルゴリズムを提案する。
また、ユーザレベルのプライバシーと構成を保証するパーソナライズされた学習手法のプライバシも開発している。
- 参考スコア(独自算出の注目度): 10.27527187262914
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A distinguishing characteristic of federated learning is that the (local)
client data could have statistical heterogeneity. This heterogeneity has
motivated the design of personalized learning, where individual (personalized)
models are trained, through collaboration. There have been various
personalization methods proposed in literature, with seemingly very different
forms and methods ranging from use of a single global model for local
regularization and model interpolation, to use of multiple global models for
personalized clustering, etc. In this work, we begin with a generative
framework that could potentially unify several different algorithms as well as
suggest new algorithms. We apply our generative framework to personalized
estimation, and connect it to the classical empirical Bayes' methodology. We
develop private personalized estimation under this framework. We then use our
generative framework for learning, which unifies several known personalized FL
algorithms and also suggests new ones; we propose and study a new algorithm
AdaPeD based on a Knowledge Distillation, which numerically outperforms several
known algorithms. We also develop privacy for personalized learning methods
with guarantees for user-level privacy and composition. We numerically evaluate
the performance as well as the privacy for both the estimation and learning
problems, demonstrating the advantages of our proposed methods.
- Abstract(参考訳): フェデレーション学習の特徴は、(ローカルな)クライアントデータが統計的に異質性を持つ可能性があることである。
この異質性は、個別の(個人化された)モデルがコラボレーションを通じてトレーニングされるパーソナライズされた学習の設計を動機付ける。
文献で提案されているパーソナライズ手法は,局所的な正規化やモデル補間に単一グローバルモデルを使用すること,パーソナライズされたクラスタリングに複数のグローバルモデルを使用すること,など,非常に異なる形態と手法を持つ。
この研究では、いくつかの異なるアルゴリズムを統一し、新しいアルゴリズムを提案する可能性のある生成フレームワークから始めます。
生成フレームワークをパーソナライズした推定に適用し,それを古典的経験的ベイズの方法論に結びつける。
この枠組みに基づいて個人別推定を行う。
そこで我々は,いくつかの既知のflアルゴリズムを統一し,新たなアルゴリズムを提案する,学習のための生成フレームワークを用いて,知識蒸留に基づく新たなアルゴリズムを提案する。
また、ユーザレベルのプライバシーと構成を保証するパーソナライズされた学習手法のプライバシを開発する。
提案手法の利点を実証し,推定問題と学習問題の両方に対するプライバシと性能を数値的に評価した。
関連論文リスト
- Blind Federated Learning without initial model [1.104960878651584]
フェデレートラーニング(Federated Learning)は、独自のプライベートデータを持つ複数の参加者間のモデル構築を可能にする、新たな機械学習アプローチである。
この方法はセキュアでプライバシ保護であり、病院などの異なるソースからの機密データを使用して機械学習モデルをトレーニングするのに適している。
論文 参考訳(メタデータ) (2024-04-24T20:10:10Z) - Personalized Federated Learning via Stacking [0.0]
本稿では、クライアントが相互にプライバシ保護モデルを直接送信し、ベースモデルとして使用し、プライベートデータ上でメタモデルをトレーニングする、階層化された一般化に基づく新しいパーソナライズ手法を提案する。
当社のアプローチは柔軟で、さまざまなプライバシ保護技術やモデルタイプを調整し、水平、ハイブリッド、垂直に分割されたフェデレーションに適用できます。
論文 参考訳(メタデータ) (2024-04-16T23:47:23Z) - Hierarchical Bayes Approach to Personalized Federated Unsupervised
Learning [7.8583640700306585]
階層型ベイズ統計フレームワークに着想を得た最適化基準に基づくアルゴリズムを開発する。
我々は,限られたローカルデータと協調情報とのバランスを検出する適応アルゴリズムを開発した。
提案アルゴリズムを合成データと実データを用いて評価し、パーソナライズされたタスクに対する効果的なサンプル増幅を実証した。
論文 参考訳(メタデータ) (2024-02-19T20:53:27Z) - Learn What You Need in Personalized Federated Learning [53.83081622573734]
$textitLearn2pFed$は、アルゴリズムに基づくパーソナライズされたフェデレーション学習フレームワークである。
我々は、textitLearn2pFed$が、従来のパーソナライズされたフェデレーション学習方法よりも大幅に優れていることを示す。
論文 参考訳(メタデータ) (2024-01-16T12:45:15Z) - Straggler-Resilient Personalized Federated Learning [55.54344312542944]
フェデレーション学習は、プライバシと通信の制限を尊重しながら、クライアントの大規模なネットワークに分散されたサンプルからのトレーニングモデルを可能にする。
これら2つのハードルを同時に処理する理論的なスピードアップを保証する新しいアルゴリズム手法を開発した。
提案手法は,すべてのクライアントのデータを用いてグローバルな共通表現を見つけ,各クライアントに対してパーソナライズされたソリューションにつながるパラメータの集合を学習するために,表現学習理論からのアイデアに依存している。
論文 参考訳(メタデータ) (2022-06-05T01:14:46Z) - Model-Based Deep Learning: On the Intersection of Deep Learning and
Optimization [101.32332941117271]
決定アルゴリズムは様々なアプリケーションで使われている。
数理モデルに頼らずにデータから調整された高度パラメトリックアーキテクチャを使用するディープラーニングアプローチが、ますます人気が高まっている。
モデルに基づく最適化とデータ中心のディープラーニングは、しばしば異なる規律とみなされる。
論文 参考訳(メタデータ) (2022-05-05T13:40:08Z) - Personalization Improves Privacy-Accuracy Tradeoffs in Federated
Optimization [57.98426940386627]
局所的な学習とプライベートな集中学習の協調は、総合的に有用であり、精度とプライバシのトレードオフを改善していることを示す。
合成および実世界のデータセットに関する実験により理論的結果について述べる。
論文 参考訳(メタデータ) (2022-02-10T20:44:44Z) - Non-IID data and Continual Learning processes in Federated Learning: A
long road ahead [58.720142291102135]
フェデレートラーニング(Federated Learning)は、複数のデバイスや機関が、データをプライベートに保存しながら、機械学習モデルを協調的にトレーニングすることを可能にする、新しいフレームワークである。
本研究では,データの統計的不均一性を正式に分類し,それに直面することのできる最も顕著な学習戦略をレビューする。
同時に、継続学習のような他の機械学習フレームワークからのアプローチを導入し、データの不均一性にも対処し、フェデレートラーニング設定に容易に適応できるようにします。
論文 参考訳(メタデータ) (2021-11-26T09:57:11Z) - A Federated Learning Aggregation Algorithm for Pervasive Computing:
Evaluation and Comparison [0.6299766708197883]
広範コンピューティングは、サービス提供のために、リビングスペースに接続デバイスをインストールすることを促進する。
エッジリソースの高度な利用と、エンジニアリングアプリケーションのための機械学習技術の統合だ。
本稿では,FedDistと呼ばれる新しいアグリゲーションアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-10-19T19:43:28Z) - Three Approaches for Personalization with Applications to Federated
Learning [68.19709953755238]
本稿では,パーソナライゼーションの体系的学習理論について述べる。
学習理論の保証と効率的なアルゴリズムを提供し、その性能を実証する。
全てのアルゴリズムはモデルに依存しず、任意の仮説クラスで機能する。
論文 参考訳(メタデータ) (2020-02-25T01:36:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。