論文の概要: Comparative Evaluation of Data Decoupling Techniques for Federated
Machine Learning with Database as a Service
- arxiv url: http://arxiv.org/abs/2303.08371v1
- Date: Wed, 15 Mar 2023 05:17:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-16 14:47:20.039456
- Title: Comparative Evaluation of Data Decoupling Techniques for Federated
Machine Learning with Database as a Service
- Title(参考訳): データベース・アズ・ア・サービスを用いたフェデレーション機械学習におけるデータデカップリング手法の比較評価
- Authors: Muhammad Jahanzeb Khan, Rui Hu, Mohammad Sadoghi, Dongfang Zhao
- Abstract要約: Federated Learning(FL)は、複数のクライアントが生データを共有せずに、共同で共有モデルを学ぶことができる機械学習アプローチである。
現在のFLシステムはオールインワンのソリューションを提供しており、科学的応用のような特定の領域におけるFLの広範な採用を妨げる可能性がある。
本稿では、クライアントが特定のデータサブシステムでFLアプリケーションをカスタマイズできるデカップリング手法を提案する。
- 参考スコア(独自算出の注目度): 17.769779803790264
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated Learning (FL) is a machine learning approach that allows multiple
clients to collaboratively learn a shared model without sharing raw data.
However, current FL systems provide an all-in-one solution, which can hinder
the wide adoption of FL in certain domains such as scientific applications. To
overcome this limitation, this paper proposes a decoupling approach that
enables clients to customize FL applications with specific data subsystems. To
evaluate this approach, the authors develop a framework called Data-Decoupling
Federated Learning (DDFL) and compare it with state-of-the-art FL systems that
tightly couple data management and computation. Extensive experiments on
various datasets and data management subsystems show that DDFL achieves
comparable or better performance in terms of training time, inference accuracy,
and database query time. Moreover, DDFL provides clients with more options to
tune their FL applications regarding data-related metrics. The authors also
provide a detailed qualitative analysis of DDFL when integrated with mainstream
database systems.
- Abstract(参考訳): Federated Learning(FL)は、複数のクライアントが生データを共有せずに、共同で共有モデルを学ぶことができる機械学習アプローチである。
しかし、現在のFLシステムはオールインワンのソリューションを提供しており、科学的応用など特定の領域におけるFLの広範な採用を妨げる可能性がある。
この制限を克服するために、クライアントが特定のデータサブシステムでFLアプリケーションをカスタマイズできるデカップリング手法を提案する。
このアプローチを評価するため,著者らはDDFL(Data-Decoupling Federated Learning)と呼ばれるフレームワークを開発し,データ管理と計算を密結合する最先端のFLシステムと比較した。
様々なデータセットとデータ管理サブシステムに関する大規模な実験により、DDFLはトレーニング時間、推測精度、データベースクエリ時間において同等またはより良いパフォーマンスを達成することが示された。
さらに、DDFLはデータ関連のメトリクスに関してFLアプリケーションをチューニングするオプションをクライアントに提供する。
著者らは、主要なデータベースシステムと統合されたDDFLの詳細な定性分析も提供している。
関連論文リスト
- Data Quality Control in Federated Instruction-tuning of Large Language Models [43.29678396558287]
データ品質制御(FedDQC)を備えた大規模言語モデル(LLM)のフェデレーション・インストラクション・チューニングの新しいフレームワークを提案する。
提案手法では,各クライアントの命令応答アライメント(IRA)を評価するための効率的なメトリクスを導入し,単一ショット推論によるノイズの多いデータを同定する。
我々は4つの合成データセットと実世界のデータセットについて広範な実験を行い、この手法を集中的な設定から適応したベースラインと比較した。
論文 参考訳(メタデータ) (2024-10-15T12:14:57Z) - Lightweight Industrial Cohorted Federated Learning for Heterogeneous Assets [0.0]
フェデレーテッド・ラーニング(FL)は、分散機械学習(ML)モデルをトレーニングするための最も広く採用されているコラボレーティブ・ラーニング・アプローチである。
しかし、すべてのFLタスクにおいて、大きなデータ類似性や均質性は認められているため、FLは産業環境では特に設計されていない。
本稿では,コホーティングにモデルパラメータを用いる軽量産業用コホーテッドFL (licFL) アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-07-25T12:48:56Z) - FedMAP: Unlocking Potential in Personalized Federated Learning through Bi-Level MAP Optimization [11.040916982022978]
フェデレートラーニング(FL)は、分散データに基づく機械学習モデルの協調トレーニングを可能にする。
クライアント間でのデータはしばしば、クラス不均衡、特徴分散スキュー、サンプルサイズ不均衡、その他の現象によって大きく異なる。
本稿では,バイレベル最適化を用いた新しいベイズPFLフレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-29T11:28:06Z) - An Aggregation-Free Federated Learning for Tackling Data Heterogeneity [50.44021981013037]
フェデレートラーニング(FL)は、分散データセットからの知識を活用する効果に頼っている。
従来のFLメソッドでは、クライアントが前回のトレーニングラウンドからサーバが集約したグローバルモデルに基づいてローカルモデルを更新するアグリゲート-then-adaptフレームワークを採用している。
我々は,新しいアグリゲーションフリーFLアルゴリズムであるFedAFを紹介する。
論文 参考訳(メタデータ) (2024-04-29T05:55:23Z) - Training Heterogeneous Client Models using Knowledge Distillation in
Serverless Federated Learning [0.5510212613486574]
Federated Learning(FL)は、分散クライアント間で共有グローバルモデルの協調トレーニングを可能にする、新興の機械学習パラダイムである。
効率的なFLのためのシステム設計に関する最近の研究は、サーバーレスコンピューティング技術を利用することで、リソース効率が向上し、トレーニングコストが削減され、データホルダの複雑なインフラストラクチャ管理負担が軽減されることを示した。
論文 参考訳(メタデータ) (2024-02-11T20:15:52Z) - A Survey on Efficient Federated Learning Methods for Foundation Model Training [62.473245910234304]
フェデレーテッド・ラーニング(FL)は、多数のクライアントにわたるプライバシー保護協調トレーニングを促進するための確立した技術となっている。
Foundation Models (FM)の後、多くのディープラーニングアプリケーションでは現実が異なる。
FLアプリケーションに対するパラメータ効率細調整(PEFT)の利点と欠点について論じる。
論文 参考訳(メタデータ) (2024-01-09T10:22:23Z) - FederatedScope-LLM: A Comprehensive Package for Fine-tuning Large
Language Models in Federated Learning [70.38817963253034]
本稿では, ファインチューニング LLM のこれらの課題について論じ, 本パッケージ FS-LLM を主な貢献として紹介する。
我々は、FLシナリオにおける将来の拡張のために、包括的フェデレーションパラメータ効率の良い微調整アルゴリズムの実装と汎用プログラミングインタフェースを提供する。
本研究では, FS-LLM の有効性を検証し, FL 設定におけるパラメータ効率の高いパラメータ調整アルゴリズムを用いて, 高度な LLM のベンチマークを行う。
論文 参考訳(メタデータ) (2023-09-01T09:40:36Z) - Federated Learning and Meta Learning: Approaches, Applications, and
Directions [94.68423258028285]
本稿では,FL,メタラーニング,フェデレーションメタラーニング(FedMeta)について概観する。
他のチュートリアルと異なり、私たちの目標はFL、メタラーニング、FedMetaの方法論をどのように設計、最適化、進化させ、無線ネットワーク上で応用するかを探ることです。
論文 参考訳(メタデータ) (2022-10-24T10:59:29Z) - FLamby: Datasets and Benchmarks for Cross-Silo Federated Learning in
Realistic Healthcare Settings [51.09574369310246]
Federated Learning(FL)は、センシティブなデータを保持している複数のクライアントが協力して機械学習モデルをトレーニングできる新しいアプローチである。
本稿では,医療分野に重点を置くクロスサイロ・データセット・スイートFLambyを提案し,クロスサイロ・FLの理論と実践のギャップを埋める。
私たちのフレキシブルでモジュラーなスイートによって、研究者は簡単にデータセットをダウンロードし、結果を再現し、研究のためにさまざまなコンポーネントを再利用することができます。
論文 参考訳(メタデータ) (2022-10-10T12:17:30Z) - Online Data Selection for Federated Learning with Limited Storage [53.46789303416799]
ネットワークデバイス間での分散機械学習を実現するために、フェデレートラーニング(FL)が提案されている。
デバイス上のストレージがFLの性能に与える影響はまだ調査されていない。
本研究では,デバイス上のストレージを限定したFLのオンラインデータ選択について検討する。
論文 参考訳(メタデータ) (2022-09-01T03:27:33Z) - TiFL: A Tier-based Federated Learning System [17.74678728280232]
フェデレートラーニング(FL)は、プライバシ要件に違反することなく、多くのクライアント間で共有モデルを学ぶことを可能にする。
従来のFLシステムのトレーニング時間とモデル精度に,資源とデータの不均一性が大きな影響を与えることを示すケーススタディを実施している。
我々は,TiFLを提案する。TiFLは,クライアントをトレーニングパフォーマンスに基づいて階層に分割し,トレーニングラウンド毎に同一階層から選択する,階層ベースのフェデレートラーニングシステムである。
論文 参考訳(メタデータ) (2020-01-25T01:40:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。