論文の概要: WrapperFL: A Model Agnostic Plug-in for Industrial Federated Learning
- arxiv url: http://arxiv.org/abs/2206.10407v1
- Date: Tue, 21 Jun 2022 13:59:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-22 15:25:17.515264
- Title: WrapperFL: A Model Agnostic Plug-in for Industrial Federated Learning
- Title(参考訳): wrapperfl: 産業連関学習のためのモデル非依存プラグイン
- Authors: Xueyang Wu, Shengqi Tan, Qian Xu, Qiang Yang
- Abstract要約: 本稿では,WrapperFLと呼ばれるアンサンブル学習にインスパイアされた,シンプルながら実用的なフェデレーション学習プラグインを提案する。
WrapperFLは、既存のモデルの入力および出力インターフェースに、再開発を必要とせずに簡単にアタッチすることで、プラグイン・アンド・プレイ方式で動作する。
- 参考スコア(独自算出の注目度): 10.909577776094782
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning, as a privacy-preserving collaborative machine learning
paradigm, has been gaining more and more attention in the industry. With the
huge rise in demand, there have been many federated learning platforms that
allow federated participants to set up and build a federated model from
scratch. However, exiting platforms are highly intrusive, complicated, and hard
to integrate with built machine learning models. For many real-world businesses
that already have mature serving models, existing federated learning platforms
have high entry barriers and development costs. This paper presents a simple
yet practical federated learning plug-in inspired by ensemble learning, dubbed
WrapperFL, allowing participants to build/join a federated system with existing
models at minimal costs. The WrapperFL works in a plug-and-play way by simply
attaching to the input and output interfaces of an existing model, without the
need of re-development, significantly reducing the overhead of manpower and
resources. We verify our proposed method on diverse tasks under heterogeneous
data distributions and heterogeneous models. The experimental results
demonstrate that WrapperFL can be successfully applied to a wide range of
applications under practical settings and improves the local model with
federated learning at a low cost.
- Abstract(参考訳): プライバシー保護型機械学習パラダイムとしての連合学習は、業界でますます注目を集めている。
需要の急増に伴い、フェデレーション参加者がゼロからフェデレーションモデルのセットアップと構築を可能にする、多くのフェデレーション学習プラットフォームが存在している。
しかし、離脱プラットフォームは非常に侵入的で複雑で、構築された機械学習モデルとの統合が難しい。
すでに成熟したサービスモデルを持つ多くの現実世界のビジネスにとって、既存の統合学習プラットフォームは、参入障壁と開発コストが高い。
本稿では,既存のモデルを用いた連合システムの構築/参加を最小限のコストで行える,アンサンブル学習にインスパイアされた,シンプルかつ実用的な連合学習プラグインを提案する。
WrapperFLは、既存のモデルの入力と出力のインターフェースに単にアタッチするだけで、再開発なしにプラグアンドプレイで動作し、人力やリソースのオーバーヘッドを大幅に削減する。
異種データ分布と異種モデルに基づく多様なタスクに対する提案手法を検証する。
実験の結果,laperflは実用環境では幅広いアプリケーションに適用可能であり,低コストで連合学習による局所モデルの改善が期待できることがわかった。
関連論文リスト
- A Survey on Efficient Federated Learning Methods for Foundation Model Training [62.473245910234304]
フェデレーテッド・ラーニング(FL)は、多数のクライアントにわたるプライバシー保護協調トレーニングを促進するための確立した技術となっている。
Foundation Models (FM)の後、多くのディープラーニングアプリケーションでは現実が異なる。
FLアプリケーションに対するパラメータ効率細調整(PEFT)の利点と欠点について論じる。
論文 参考訳(メタデータ) (2024-01-09T10:22:23Z) - FlexModel: A Framework for Interpretability of Distributed Large
Language Models [0.0]
マルチGPUとマルチノード構成に分散したモデルを扱うための,合理化されたインターフェースを提供するソフトウェアパッケージであるFlexModelを紹介する。
このライブラリは既存のモデル配布ライブラリと互換性があり、PyTorchモデルをカプセル化している。
ユーザ登録可能なHookFunctionを公開して,分散モデル内部との直接的なインタラクションを容易にする。
論文 参考訳(メタデータ) (2023-12-05T21:19:33Z) - Tunable Soft Prompts are Messengers in Federated Learning [55.924749085481544]
フェデレートラーニング(FL)は、複数の参加者が分散データソースを使用して機械学習モデルを協調的にトレーニングすることを可能にする。
FLにおけるモデルプライバシ保護の欠如は無視できない課題となっている。
そこで本研究では,ソフトプロンプトによって参加者間の情報交換を実現する新しいFLトレーニング手法を提案する。
論文 参考訳(メタデータ) (2023-11-12T11:01:10Z) - Knowledge-Enhanced Semi-Supervised Federated Learning for Aggregating
Heterogeneous Lightweight Clients in IoT [34.128674870180596]
フェデレートラーニング(FL)は、複数のクライアントがローカルデータを共有せずに、協調的にモデルをトレーニングすることを可能にする。
pFedKnowは、ニューラルネットワークのプルーニング技術を用いて、軽量なパーソナライズされたクライアントモデルを生成し、通信コストを削減する。
画像とテキストのデータセットによる実験結果から、提案したpFedKnowは最先端のベースラインを上回っていることがわかった。
論文 参考訳(メタデータ) (2023-03-05T13:19:10Z) - Conquering the Communication Constraints to Enable Large Pre-Trained Models in Federated Learning [18.12162136918301]
フェデレートラーニング(FL)は、ローカルデバイス上の生データに一元的にアクセスすることなく、モデルの協調的なトレーニングを可能にするための、有望なパラダイムとして登場した。
最近の最先端の事前訓練モデルでは、より能力が高くなっているが、パラメータも増えている。
FLにおけるこれらの強力で容易に利用できる事前学習モデルが、通信負荷を同時に軽減しつつ優れた性能を達成するためのソリューションを見つけることができるだろうか?
具体的には,FedPEFTの性能を,クライアントの安定性,データ分散,プライバシ設定の違いによって体系的に評価する。
論文 参考訳(メタデータ) (2022-10-04T16:08:54Z) - Vertical Semi-Federated Learning for Efficient Online Advertising [50.18284051956359]
VFLの実践的な産業的応用を実現するために,Semi-VFL (Vertical Semi-Federated Learning) を提案する。
サンプル空間全体に適用可能な推論効率のよいシングルパーティ学生モデルを構築した。
新しい表現蒸留法は、重なり合うデータと非重なり合うデータの両方について、パーティ間の特徴相関を抽出するように設計されている。
論文 参考訳(メタデータ) (2022-09-30T17:59:27Z) - Efficient Split-Mix Federated Learning for On-Demand and In-Situ
Customization [107.72786199113183]
フェデレートラーニング(FL)は、複数の参加者が生データを共有せずに学習をコラボレーションするための分散ラーニングフレームワークを提供する。
本稿では, モデルサイズとロバスト性をその場でカスタマイズできる, 不均一な参加者のための新しいスプリット・ミクス・FL戦略を提案する。
論文 参考訳(メタデータ) (2022-03-18T04:58:34Z) - No One Left Behind: Inclusive Federated Learning over Heterogeneous
Devices [79.16481453598266]
この問題に対処するクライアント包摂的フェデレーション学習手法であるInclusiveFLを提案する。
InclusiveFLの中核となる考え方は、異なるサイズのモデルを異なる計算能力を持つクライアントに割り当てることである。
また,異なる大きさの複数の局所モデル間で知識を共有する効果的な手法を提案する。
論文 参考訳(メタデータ) (2022-02-16T13:03:27Z) - FLHub: a Federated Learning model sharing service [0.7614628596146599]
機械学習モデルの共有サービスとしてフェデレートラーニングハブ(FLHub)を提案する。
FLHubを使えば、GitHubと同じように、他の開発者が開発したモデルをアップロード、ダウンロード、コントリビュートすることができる。
我々は、フォークモデルが既存のモデルよりも速くトレーニングを完了し、各フェデレートラウンドで学習がより高速に進行できることを実証した。
論文 参考訳(メタデータ) (2022-02-14T06:02:55Z) - Model-Contrastive Federated Learning [92.9075661456444]
フェデレーションラーニングにより、複数のパーティがローカルデータを伝達することなく、機械学習モデルを共同でトレーニングできます。
MOON:モデルコントラスト連合学習を提案します。
実験の結果,MOONは様々な画像分類タスクにおいて,他の最先端のフェデレーション学習アルゴリズムよりも優れていた。
論文 参考訳(メタデータ) (2021-03-30T11:16:57Z) - Loosely Coupled Federated Learning Over Generative Models [6.472716351335859]
プライベートデータをアップロードすることなく、さまざまなクライアント間で協調的な機械学習を実現するために、フェデレートラーニング(FL)が提案された。
本稿では,低通信コストと不均一なフェデレーション学習を実現するために,Losely Coupled Federated Learning (LC-FL)を提案する。
論文 参考訳(メタデータ) (2020-09-28T01:09:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。