論文の概要: FLHub: a Federated Learning model sharing service
- arxiv url: http://arxiv.org/abs/2202.06493v1
- Date: Mon, 14 Feb 2022 06:02:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-16 03:45:46.787895
- Title: FLHub: a Federated Learning model sharing service
- Title(参考訳): flhub - 連合学習モデル共有サービス
- Authors: Hyunsu Mun, Youngseok Lee
- Abstract要約: 機械学習モデルの共有サービスとしてフェデレートラーニングハブ(FLHub)を提案する。
FLHubを使えば、GitHubと同じように、他の開発者が開発したモデルをアップロード、ダウンロード、コントリビュートすることができる。
我々は、フォークモデルが既存のモデルよりも速くトレーニングを完了し、各フェデレートラウンドで学習がより高速に進行できることを実証した。
- 参考スコア(独自算出の注目度): 0.7614628596146599
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As easy-to-use deep learning libraries such as Tensorflow and Pytorch are
popular, it has become convenient to develop machine learning models. Due to
privacy issues with centralized machine learning, recently, federated learning
in the distributed computing framework is attracting attention. The central
server does not collect sensitive and personal data from clients in federated
learning, but it only aggregates the model parameters. Though federated
learning helps protect privacy, it is difficult for machine learning developers
to share the models that they could utilize for different-domain applications.
In this paper, we propose a federated learning model sharing service named
Federated Learning Hub (FLHub). Users can upload, download, and contribute the
model developed by other developers similarly to GitHub. We demonstrate that a
forked model can finish training faster than the existing model and that
learning progressed more quickly for each federated round.
- Abstract(参考訳): TensorflowやPytorchといった使いやすいディープラーニングライブラリが普及しているため、機械学習モデルを開発するのが便利になっている。
集中型機械学習のプライバシー問題により、近年、分散コンピューティングフレームワークにおけるフェデレーション学習が注目されている。
中央サーバは、フェデレーション学習においてクライアントから機密データや個人データを収集しないが、モデルパラメータのみを集約する。
連合学習はプライバシを保護するのに役立つが、マシンラーニング開発者が異なるドメインアプリケーションで使用できるモデルを共有することは難しい。
本稿では,federated learning hub(flhub)という,連合学習モデル共有サービスを提案する。
ユーザはGitHubと同じように、他の開発者が開発したモデルをアップロード、ダウンロード、コントリビュートすることができる。
我々は,フォークしたモデルが既存のモデルよりも早くトレーニングを終了でき,各フェデレーションラウンドの学習がより速く進行できることを実証する。
関連論文リスト
- Update Selective Parameters: Federated Machine Unlearning Based on Model Explanation [46.86767774669831]
モデル説明の概念に基づく、より効率的で効率的なフェデレーション・アンラーニング・スキームを提案する。
我々は、未学習のデータに対して、すでに訓練済みのモデルの中で最も影響力のあるチャネルを選択します。
論文 参考訳(メタデータ) (2024-06-18T11:43:20Z) - MultiConfederated Learning: Inclusive Non-IID Data handling with Decentralized Federated Learning [1.2726316791083532]
Federated Learning (FL) は、機密性のある臨床機械学習のようなユースケースを可能にするための、顕著なプライバシ保護技術として登場した。
FLはデータを所有するリモートデバイスによってトレーニングされたモデルを集約することで動作する。
非IIDデータを扱うために設計された分散FLフレームワークであるMultiConfederated Learningを提案する。
論文 参考訳(メタデータ) (2024-04-20T16:38:26Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - WrapperFL: A Model Agnostic Plug-in for Industrial Federated Learning [10.909577776094782]
本稿では,WrapperFLと呼ばれるアンサンブル学習にインスパイアされた,シンプルながら実用的なフェデレーション学習プラグインを提案する。
WrapperFLは、既存のモデルの入力および出力インターフェースに、再開発を必要とせずに簡単にアタッチすることで、プラグイン・アンド・プレイ方式で動作する。
論文 参考訳(メタデータ) (2022-06-21T13:59:11Z) - Scatterbrained: A flexible and expandable pattern for decentralized
machine learning [1.2891210250935146]
フェデレーション機械学習は、複数のデバイス間でデータを交換することなくモデルをトレーニングするテクニックである。
我々は、フェデレートされた学習パターンを分散化するための柔軟なフレームワークを提案し、PyTorchと互換性のあるオープンソースのリファレンス実装を提供する。
論文 参考訳(メタデータ) (2021-12-14T19:39:35Z) - An Expectation-Maximization Perspective on Federated Learning [75.67515842938299]
フェデレーション学習は、データをデバイス上でプライベートにしながら、複数のクライアントにわたるモデルの分散トレーニングを記述する。
本稿では,サーバがクライアント固有のモデルパラメータに対して事前分布のパラメータを提供する階層的潜在変数モデルとして,サーバが設定したフェデレーション学習プロセスについて考察する。
我々は,単純なガウス先行とよく知られた期待最大化(EM)アルゴリズムのハードバージョンを用いて,そのようなモデルの学習は,フェデレーション学習環境における最も一般的なアルゴリズムであるFedAvgに対応することを示す。
論文 参考訳(メタデータ) (2021-11-19T12:58:59Z) - Advancements of federated learning towards privacy preservation: from
federated learning to split learning [1.3700362496838854]
分散コラボレーティブ機械学習(DCML)パラダイムにおいて、フェデレーテッド・ラーニング(FL)は、健康、金融、業界 4.0 やスマート車といった最新のイノベーションの応用により、最近多くの注目を集めた。
現実的なシナリオでは、すべてのクライアントは十分なコンピューティングリソース(例えばモノのインターネット)を持っておらず、機械学習モデルには数百万のパラメータがあり、サーバとクライアントの間のプライバシは主要な関心事である。
近年、FLとSLのハイブリッドであるスプリット・ラーニングを導入し、FL(より速いトレーニング/テスト時間)とSL(モデル分割時間)の両方の利点を高めている。
論文 参考訳(メタデータ) (2020-11-25T05:01:33Z) - Federated Mutual Learning [65.46254760557073]
Federated Mutual Leaning (FML)は、クライアントが汎用モデルとパーソナライズされたモデルを独立してトレーニングすることを可能にする。
実験により、FMLは一般的なフェデレート学習環境よりも優れた性能が得られることが示された。
論文 参考訳(メタデータ) (2020-06-27T09:35:03Z) - Ensemble Distillation for Robust Model Fusion in Federated Learning [72.61259487233214]
Federated Learning(FL)は、多くのデバイスが機械学習モデルを協調的にトレーニングする機械学習環境である。
現在のトレーニングスキームのほとんどでは、サーバモデルのパラメータと更新されたパラメータをクライアント側から平均化することで、中央モデルを洗練します。
本研究では,モデル融合のためのアンサンブル蒸留法を提案する。
論文 参考訳(メタデータ) (2020-06-12T14:49:47Z) - Information-Theoretic Bounds on the Generalization Error and Privacy
Leakage in Federated Learning [96.38757904624208]
モバイルネットワーク上の機械学習アルゴリズムは、3つのカテゴリに分類される。
この研究の主な目的は、前述のすべての学習パラダイムに対する情報理論のフレームワークを提供することである。
論文 参考訳(メタデータ) (2020-05-05T21:23:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。