論文の概要: Fine-Tuning Foundation Models with Federated Learning for Privacy Preserving Medical Time Series Forecasting
- arxiv url: http://arxiv.org/abs/2502.09744v1
- Date: Thu, 13 Feb 2025 20:01:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-17 18:06:49.567590
- Title: Fine-Tuning Foundation Models with Federated Learning for Privacy Preserving Medical Time Series Forecasting
- Title(参考訳): 医療時系列予測のプライバシ保護のためのフェデレーション学習を用いたファインチューニング基礎モデル
- Authors: Mahad Ali, Curtis Lisle, Patrick W. Moore, Tammer Barkouki, Brian J. Kirkwood, Laura J. Brattain,
- Abstract要約: フェデレートラーニング(FL)は、複数のデバイスやサーバが生データを共有せずに協調的にモデルをトレーニングする、分散機械学習アプローチを提供する。
本稿では,心電図 (ECG) とインピーダンス心電図 (ICG) データを用いたFMの微調整を行う。
実験の結果,FLは時系列予測タスクの微調整に有効であるが,その利点はクライアント間のデータ分布に依存することがわかった。
- 参考スコア(独自算出の注目度): 0.32985979395737786
- License:
- Abstract: Federated Learning (FL) provides a decentralized machine learning approach, where multiple devices or servers collaboratively train a model without sharing their raw data, thus enabling data privacy. This approach has gained significant interest in academia and industry due to its privacy-preserving properties, which are particularly valuable in the medical domain where data availability is often protected under strict regulations. A relatively unexplored area is the use of FL to fine-tune Foundation Models (FMs) for time series forecasting, potentially enhancing model efficacy by overcoming data limitation while maintaining privacy. In this paper, we fine-tuned time series FMs with Electrocardiogram (ECG) and Impedance Cardiography (ICG) data using different FL techniques. We then examined various scenarios and discussed the challenges FL faces under different data heterogeneity configurations. Our empirical results demonstrated that while FL can be effective for fine-tuning FMs on time series forecasting tasks, its benefits depend on the data distribution across clients. We highlighted the trade-offs in applying FL to FM fine-tuning.
- Abstract(参考訳): Federated Learning(FL)は、複数のデバイスやサーバが生データを共有せずに協調的にモデルをトレーニングし、データのプライバシを可能にする、分散機械学習アプローチを提供する。
このアプローチは、データ可用性が厳格な規制の下で保護されることの多い医療分野において、特に価値があるプライバシー保護プロパティによって、学術や産業において大きな関心を集めている。
比較的探索されていない領域は、時系列予測にFLを使用しており、プライバシーを維持しながらデータ制限を克服し、モデルの有効性を高める可能性がある。
本稿では,心電図(ECG)とインピーダンス心電図(ICG)データを用いた時系列FMの微調整を行った。
次に、さまざまなシナリオを検証し、FLが直面する課題について、異なるデータ不均一性構成で検討した。
実験の結果,FLは時系列予測タスクの微調整に有効であるが,その利点はクライアント間のデータ分布に依存することがわかった。
FM微調整にFLを適用する際のトレードオフを強調した。
関連論文リスト
- Synergizing Foundation Models and Federated Learning: A Survey [23.416321895575507]
本稿では,フェデレートラーニング(FL)とファンデーションモデル(FM)の融合の可能性と課題について論じる。
FLは、さまざまな参加者からのデータ可用性の障壁を破る、共同学習パラダイムである。
プライバシを保護しながら、分散データセットを使用して、幅広いドメイン固有のタスクにFMをカスタマイズし、適応する有望なソリューションを提供する。
論文 参考訳(メタデータ) (2024-06-18T17:58:09Z) - An Aggregation-Free Federated Learning for Tackling Data Heterogeneity [50.44021981013037]
フェデレートラーニング(FL)は、分散データセットからの知識を活用する効果に頼っている。
従来のFLメソッドでは、クライアントが前回のトレーニングラウンドからサーバが集約したグローバルモデルに基づいてローカルモデルを更新するアグリゲート-then-adaptフレームワークを採用している。
我々は,新しいアグリゲーションフリーFLアルゴリズムであるFedAFを紹介する。
論文 参考訳(メタデータ) (2024-04-29T05:55:23Z) - A Survey on Efficient Federated Learning Methods for Foundation Model Training [62.473245910234304]
フェデレーテッド・ラーニング(FL)は、多数のクライアントにわたるプライバシー保護協調トレーニングを促進するための確立した技術となっている。
Foundation Models (FM)の後、多くのディープラーニングアプリケーションでは現実が異なる。
FLアプリケーションに対するパラメータ効率細調整(PEFT)の利点と欠点について論じる。
論文 参考訳(メタデータ) (2024-01-09T10:22:23Z) - Federated Learning with Diffusion Models for Privacy-Sensitive Vision
Tasks [27.780010580879377]
拡散モデルは視覚に関連したタスク、特に画像生成において大きな可能性を持つ。
しかし、それらのトレーニングは一般的に、一般に公開されているソースから収集されたデータに依存して、集中的に行われる。
このアプローチは、データ収集に対するプライバシー上の懸念を伴う医療分野など、多くの領域で実現可能でも実用的でもないかもしれない。
論文 参考訳(メタデータ) (2023-11-28T06:08:16Z) - Federated Learning with Privacy-Preserving Ensemble Attention
Distillation [63.39442596910485]
Federated Learning(FL)は、多くのローカルノードがトレーニングデータを分散化しながら、中央モデルを協調的にトレーニングする機械学習パラダイムである。
本稿では,未ラベル公開データを利用した一方向オフライン知識蒸留のためのプライバシー保護FLフレームワークを提案する。
我々の技術は、既存のFLアプローチのような分散的で異質なローカルデータを使用するが、より重要なのは、プライバシー漏洩のリスクを著しく低減することです。
論文 参考訳(メタデータ) (2022-10-16T06:44:46Z) - FedDAR: Federated Domain-Aware Representation Learning [14.174833360938806]
クロスサイロ・フェデレーション・ラーニング(FL)は、医療のための機械学習アプリケーションにおいて有望なツールとなっている。
本稿では,ドメイン共有表現とドメインワイド・パーソナライズされた予測ヘッドを学習する新しい手法であるFedDARを提案する。
論文 参考訳(メタデータ) (2022-09-08T19:18:59Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - Differentially private federated deep learning for multi-site medical
image segmentation [56.30543374146002]
フェデレートラーニング(FL)のような協調機械学習技術は、データ転送なしで効果的に大規模なデータセット上でモデルのトレーニングを可能にする。
近年のイニシアチブでは、FLで訓練されたセグメンテーションモデルが、局所的に訓練されたモデルと同様のパフォーマンスを達成できることが示されている。
しかし、FLは完全なプライバシ保護技術ではなく、プライバシ中心の攻撃は秘密の患者データを開示することができる。
論文 参考訳(メタデータ) (2021-07-06T12:57:32Z) - Learning summary features of time series for likelihood free inference [93.08098361687722]
時系列データから要約機能を自動的に学習するためのデータ駆動型戦略を提案する。
以上の結果から,データから要約的特徴を学習することで,手作りの値に基づいてLFI手法よりも優れる可能性が示唆された。
論文 参考訳(メタデータ) (2020-12-04T19:21:37Z) - Reliability and Performance Assessment of Federated Learning on Clinical
Benchmark Data [0.0]
フェデレートラーニング(FL)は、トレーニング期間中にデータを集中化しないため、個人のプライバシを保護することが提案されている。
本研究では,MNISTやMIMIC-IIIなどのベンチマークデータセットを用いてFLの信頼性と性能を評価する。
論文 参考訳(メタデータ) (2020-05-24T14:36:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。