論文の概要: Federated Learning: From Theory to Practice
- arxiv url: http://arxiv.org/abs/2505.19183v2
- Date: Tue, 10 Jun 2025 07:52:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-11 15:11:40.073227
- Title: Federated Learning: From Theory to Practice
- Title(参考訳): フェデレートラーニング:理論から実践へ
- Authors: A. Jung,
- Abstract要約: この本は、連邦学習(FL)システムの構築と理解についてハンズオンで紹介する。
FLは、スマートフォン、センサー、ローカルコンピュータなどの複数のデバイスで、機械学習(ML)モデルを協調的にトレーニングすることを可能にする。
プライバシや規制、技術的な理由から、データが集中できない、あるいは集中できないような、強力なソリューションです。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This book offers a hands-on introduction to building and understanding federated learning (FL) systems. FL enables multiple devices -- such as smartphones, sensors, or local computers -- to collaboratively train machine learning (ML) models, while keeping their data private and local. It is a powerful solution when data cannot or should not be centralized due to privacy, regulatory, or technical reasons. The book is designed for students, engineers, and researchers who want to learn how to design scalable, privacy preserving FL systems. Our main focus is on personalization: enabling each device to train its own model while still benefiting from collaboration with relevant devices. This is achieved by leveraging similarities between (the learning tasks associated with) devices that are encoded by the weighted edges (or links) of a federated learning network (FL network). The key idea is to represent real-world FL systems as networks of devices, where nodes correspond to device and edges represent communication links and data similarities between them. The training of personalized models for these devices can be naturally framed as a distributed optimization problem. This optimization problem is referred to as generalized total variation minimization (GTVMin) and ensures that devices with similar learning tasks learn similar model parameters. Our approach is both mathematically principled and practically motivated. While we introduce some advanced ideas from optimization theory and graph-based learning, we aim to keep the book accessible. Readers are guided through the core ideas step by step, with intuitive explanations.
- Abstract(参考訳): この本は、連邦学習(FL)システムの構築と理解についてハンズオンで紹介する。
FLは、スマートフォン、センサー、ローカルコンピュータなどの複数のデバイスが、データをプライベートかつローカルに保ちながら、共同で機械学習(ML)モデルをトレーニングすることを可能にする。
プライバシや規制、技術的な理由から、データが集中できない、あるいは集中できないような、強力なソリューションです。
この本は、スケーラブルでプライバシーを守るFLシステムの設計方法を学びたい学生、エンジニア、研究者向けにデザインされている。
それぞれのデバイスが、関連するデバイスとのコラボレーションの恩恵を受けながら、独自のモデルをトレーニングできるようにします。
これは、フェデレーション学習ネットワーク(FLネットワーク)の重み付きエッジ(またはリンク)によって符号化されるデバイス間の類似性(学習タスク)を活用することで達成される。
鍵となるアイデアは、実際のFLシステムをデバイスネットワークとして表現することであり、ノードはデバイスとエッジに対応し、通信リンクとそれらの間のデータ類似性を表す。
これらのデバイスのためのパーソナライズされたモデルのトレーニングは、分散最適化問題として自然にフレーム化できる。
この最適化問題は、一般化総変分最小化(GTVMin)と呼ばれ、類似の学習タスクを持つデバイスが同様のモデルパラメータを学習することを保証している。
私たちのアプローチは数学的に原則化され、実践的に動機づけられています。
最適化理論やグラフベースの学習から先進的なアイデアを導入する一方で,本書のアクセス性を維持することを目指しています。
読者は、直感的な説明で、中核的なアイデアをステップバイステップでガイドする。
関連論文リスト
- TIFeD: a Tiny Integer-based Federated learning algorithm with Direct feedback alignment [47.39949471062935]
リソース制約のあるデバイス上でのトレーニングマシンとディープラーニングモデルは、小さな機械学習分野における次の課題である。
提案したアルゴリズムは、完全なネットワークと単一層実装を備え、科学界でパブリックリポジトリとして利用可能である。
論文 参考訳(メタデータ) (2024-11-25T14:44:26Z) - Communication Efficient ConFederated Learning: An Event-Triggered SAGA
Approach [67.27031215756121]
Federated Learning(FL)は、さまざまなデータソース上のローカルデータを収集することなく、モデルトレーニングをターゲットとする機械学習パラダイムである。
単一のサーバを使用するStandard FLは、限られた数のユーザしかサポートできないため、学習能力の低下につながる。
本研究では,多数のユーザに対応するために,emphConfederated Learning(CFL)と呼ばれるマルチサーバFLフレームワークを検討する。
論文 参考訳(メタデータ) (2024-02-28T03:27:10Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - Federated Learning and Meta Learning: Approaches, Applications, and
Directions [94.68423258028285]
本稿では,FL,メタラーニング,フェデレーションメタラーニング(FedMeta)について概観する。
他のチュートリアルと異なり、私たちの目標はFL、メタラーニング、FedMetaの方法論をどのように設計、最適化、進化させ、無線ネットワーク上で応用するかを探ることです。
論文 参考訳(メタデータ) (2022-10-24T10:59:29Z) - FedHe: Heterogeneous Models and Communication-Efficient Federated
Learning [0.0]
フェデレートラーニング(FL)は、エッジデバイスを管理して、ローカルとプライベートのトレーニングデータを維持しながら、モデルを協調的にトレーニングすることができる。
本稿では,異種モデルを学習し,非同期学習プロセスを支援する知識蒸留にインスパイアされた新しいFL法であるFedHeを提案する。
論文 参考訳(メタデータ) (2021-10-19T12:18:37Z) - Wireless Communications for Collaborative Federated Learning [160.82696473996566]
IoT(Internet of Things)デバイスは、収集したデータを中央のコントローラに送信することができず、機械学習モデルをトレーニングすることができる。
GoogleのセミナルFLアルゴリズムでは、すべてのデバイスを中央コントローラに直接接続する必要がある。
本稿では,コラボレーティブFL(CFL)と呼ばれる新しいFLフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-03T20:00:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。