論文の概要: Information-Theoretic Bounds on the Generalization Error and Privacy
Leakage in Federated Learning
- arxiv url: http://arxiv.org/abs/2005.02503v1
- Date: Tue, 5 May 2020 21:23:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-06 13:06:22.548034
- Title: Information-Theoretic Bounds on the Generalization Error and Privacy
Leakage in Federated Learning
- Title(参考訳): 連合学習における一般化誤りとプライバシー漏洩に関する情報理論的境界
- Authors: Semih Yagli, Alex Dytso, H. Vincent Poor
- Abstract要約: モバイルネットワーク上の機械学習アルゴリズムは、3つのカテゴリに分類される。
この研究の主な目的は、前述のすべての学習パラダイムに対する情報理論のフレームワークを提供することである。
- 参考スコア(独自算出の注目度): 96.38757904624208
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning algorithms operating on mobile networks can be characterized
into three different categories. First is the classical situation in which the
end-user devices send their data to a central server where this data is used to
train a model. Second is the distributed setting in which each device trains
its own model and send its model parameters to a central server where these
model parameters are aggregated to create one final model. Third is the
federated learning setting in which, at any given time $t$, a certain number of
active end users train with their own local data along with feedback provided
by the central server and then send their newly estimated model parameters to
the central server. The server, then, aggregates these new parameters, updates
its own model, and feeds the updated parameters back to all the end users,
continuing this process until it converges.
The main objective of this work is to provide an information-theoretic
framework for all of the aforementioned learning paradigms. Moreover, using the
provided framework, we develop upper and lower bounds on the generalization
error together with bounds on the privacy leakage in the classical, distributed
and federated learning settings.
Keywords: Federated Learning, Distributed Learning, Machine Learning, Model
Aggregation.
- Abstract(参考訳): モバイルネットワークで動作する機械学習アルゴリズムは,3つのカテゴリに分類される。
1つ目は、エンドユーザーデバイスがデータを中央サーバーに送信し、このデータがモデルをトレーニングするのに使用される古典的な状況である。
第2に、各デバイスが独自のモデルをトレーニングし、モデルパラメータを中央サーバに送信する分散設定で、モデルパラメータを集約して1つの最終モデルを生成する。
3つ目は連合学習(federated learning)で、任意の時間に、ある数のアクティブエンドユーザーが自身のローカルデータをトレーニングし、中央サーバから提供されるフィードバックとともに、新たに推定されたモデルパラメータを中央サーバに送信する。
サーバはこれらの新しいパラメータを集約し、独自のモデルを更新し、更新されたパラメータをすべてのエンドユーザに返送し、収束するまでこのプロセスを継続する。
この研究の主な目的は、前述のすべての学習パラダイムに対する情報理論フレームワークを提供することである。
さらに,提案フレームワークを用いて,古典的,分散的,フェデレートされた学習環境におけるプライバシリークのバウンダリとともに,一般化誤差の上下境界を開発する。
キーワード:連合学習、分散学習、機械学習、モデル集約。
関連論文リスト
- Update Selective Parameters: Federated Machine Unlearning Based on Model Explanation [46.86767774669831]
モデル説明の概念に基づく、より効率的で効率的なフェデレーション・アンラーニング・スキームを提案する。
我々は、未学習のデータに対して、すでに訓練済みのモデルの中で最も影響力のあるチャネルを選択します。
論文 参考訳(メタデータ) (2024-06-18T11:43:20Z) - Federated Learning with Projected Trajectory Regularization [65.6266768678291]
フェデレーション学習は、ローカルデータを共有せずに、分散クライアントから機械学習モデルの共同トレーニングを可能にする。
連合学習における重要な課題の1つは、クライアントにまたがる識別できない分散データを扱うことである。
本稿では,データ問題に対処するための予測軌道正則化(FedPTR)を備えた新しいフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-22T02:12:08Z) - Cross-Silo Federated Learning Across Divergent Domains with Iterative Parameter Alignment [4.95475852994362]
フェデレートラーニング(Federated Learning)は、リモートクライアント間で機械学習モデルをトレーニングする手法である。
我々は、共通の目的のために最適化されたNモデルを学ぶために、典型的な連合学習環境を再構築する。
この技術は、最先端のアプローチと比較して、様々なデータパーティションにおける競合的な結果が得られることがわかった。
論文 参考訳(メタデータ) (2023-11-08T16:42:14Z) - Don't Memorize; Mimic The Past: Federated Class Incremental Learning
Without Episodic Memory [36.4406505365313]
本稿では,過去のデータの一部を格納するのではなく,生成モデルを用いて過去の分布からサンプルを合成する,連邦化クラスインクリメンタルラーニングのためのフレームワークを提案する。
生成モデルは、クライアントからデータを要求することなく、各タスクの最後にデータフリーのメソッドを使用してサーバ上でトレーニングされる。
論文 参考訳(メタデータ) (2023-07-02T07:06:45Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - DYNAFED: Tackling Client Data Heterogeneity with Global Dynamics [60.60173139258481]
非イド分散データに対する局所訓練は、偏向局所最適化をもたらす。
自然な解決策は、サーバがデータ分散全体のグローバルなビューを持つように、すべてのクライアントデータをサーバに収集することです。
本稿では,データプライバシを損なうことなく,サーバ上でのグローバルな知識の収集と活用を図る。
論文 参考訳(メタデータ) (2022-11-20T06:13:06Z) - Applied Federated Learning: Architectural Design for Robust and
Efficient Learning in Privacy Aware Settings [0.8454446648908585]
古典的な機械学習パラダイムは、中央にユーザーデータの集約を必要とする。
データの集中化は、内部および外部のセキュリティインシデントのリスクを高めることを含むリスクを引き起こす。
差分プライバシーによるフェデレーション学習は、サーバ側の集中化落とし穴を避けるように設計されている。
論文 参考訳(メタデータ) (2022-06-02T00:30:04Z) - An Expectation-Maximization Perspective on Federated Learning [75.67515842938299]
フェデレーション学習は、データをデバイス上でプライベートにしながら、複数のクライアントにわたるモデルの分散トレーニングを記述する。
本稿では,サーバがクライアント固有のモデルパラメータに対して事前分布のパラメータを提供する階層的潜在変数モデルとして,サーバが設定したフェデレーション学習プロセスについて考察する。
我々は,単純なガウス先行とよく知られた期待最大化(EM)アルゴリズムのハードバージョンを用いて,そのようなモデルの学習は,フェデレーション学習環境における最も一般的なアルゴリズムであるFedAvgに対応することを示す。
論文 参考訳(メタデータ) (2021-11-19T12:58:59Z) - Flow-FL: Data-Driven Federated Learning for Spatio-Temporal Predictions
in Multi-Robot Systems [16.887485428725043]
我々は,フェデレートラーニングフレームワークが,コネクテッドロボットチームの分散データから集合的に学習する方法について述べる。
このフレームワークは通常、データをローカルに収集し、モデルのニューラルネットワーク重みを更新し、グローバルモデルに集約するためにサーバにアップデートを送信する。
論文 参考訳(メタデータ) (2020-10-16T19:09:57Z) - Think Locally, Act Globally: Federated Learning with Local and Global
Representations [92.68484710504666]
フェデレートラーニング(Federated Learning)とは、複数のデバイスに分散したプライベートデータ上でモデルをトレーニングする手法である。
本稿では,各デバイス上でコンパクトな局所表現を共同で学習する新しいフェデレーション学習アルゴリズムを提案する。
また、プライバシが鍵となる実世界のモバイルデータから、パーソナライズされた気分予測のタスクを評価する。
論文 参考訳(メタデータ) (2020-01-06T12:40:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。