論文の概要: MH-pFLID: Model Heterogeneous personalized Federated Learning via Injection and Distillation for Medical Data Analysis
- arxiv url: http://arxiv.org/abs/2405.06822v1
- Date: Fri, 10 May 2024 21:52:27 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-14 19:55:18.179946
- Title: MH-pFLID: Model Heterogeneous personalized Federated Learning via Injection and Distillation for Medical Data Analysis
- Title(参考訳): MH-pFLID:医療データ分析のための注入・蒸留によるモデル不均一な個別化学習
- Authors: Luyuan Xie, Manqing Lin, Tianyu Luan, Cong Li, Yuejian Fang, Qingni Shen, Zhonghai Wu,
- Abstract要約: フェデレートラーニングは、局所的なデータアクセスを必要とせず、グローバルモデルをトレーニングするための医療アプリケーションで広く使われている。
知識蒸留を用いた現在の連合学習手法は、公開データセットを必要とし、プライバシとデータ収集の問題を提起する。
我々は、MH-pFLID(MH-pFLID)を用いた新しいフェデレーション学習パラダイム、モデル不均一パーソナライズされたフェデレーション学習を導入する。
- 参考スコア(独自算出の注目度): 15.644552375244805
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning is widely used in medical applications for training global models without needing local data access. However, varying computational capabilities and network architectures (system heterogeneity), across clients pose significant challenges in effectively aggregating information from non-independently and identically distributed (non-IID) data. Current federated learning methods using knowledge distillation require public datasets, raising privacy and data collection issues. Additionally, these datasets require additional local computing and storage resources, which is a burden for medical institutions with limited hardware conditions. In this paper, we introduce a novel federated learning paradigm, named Model Heterogeneous personalized Federated Learning via Injection and Distillation (MH-pFLID). Our framework leverages a lightweight messenger model that carries concentrated information to collect the information from each client. We also develop a set of receiver and transmitter modules to receive and send information from the messenger model, so that the information could be injected and distilled with efficiency.
- Abstract(参考訳): フェデレートラーニングは、局所的なデータアクセスを必要とせず、グローバルモデルをトレーニングするための医療アプリケーションで広く使われている。
しかし、クライアント間で異なる計算能力とネットワークアーキテクチャ(システム不均一性)は、非独立かつ同一に分散された(非IID)データから情報を効果的に集約する上で重要な課題を生じさせる。
知識蒸留を用いた現在の連合学習手法は、公開データセットを必要とし、プライバシとデータ収集の問題を提起する。
さらに、これらのデータセットは、ハードウェア条件が限られた医療機関にとって負担となる、ローカルコンピューティングとストレージリソースの追加を必要とする。
本稿では,MH-pFLID(MH-pFLID)を用いた新しいフェデレーション学習パラダイムであるモデルヘテロジニシャルパーソナライズされたフェデレーション学習を提案する。
我々のフレームワークは、各クライアントから情報を集めるために集中した情報を運ぶ軽量なメッセンジャーモデルを活用している。
また,メッセンジャーモデルから情報を受信・送信するための受信モジュールと送信モジュールのセットを開発し,その情報を効率よく注入・蒸留できるようにした。
関連論文リスト
- MH-pFLGB: Model Heterogeneous personalized Federated Learning via Global Bypass for Medical Image Analysis [14.298460846515969]
我々は,公共データセットへの依存を緩和し,非IIDデータ分散の複雑さをナビゲートするために,グローバルバイパス戦略を利用する新しいアプローチであるMH-pFLGBを導入する。
本手法は,クライアント間で情報を共有するグローバルバイパスモデルを統合することで,従来のフェデレーション学習を強化し,各クライアントの性能を高めるネットワークの一部として機能する。
論文 参考訳(メタデータ) (2024-06-29T15:38:37Z) - Tunable Soft Prompts are Messengers in Federated Learning [55.924749085481544]
フェデレートラーニング(FL)は、複数の参加者が分散データソースを使用して機械学習モデルを協調的にトレーニングすることを可能にする。
FLにおけるモデルプライバシ保護の欠如は無視できない課題となっている。
そこで本研究では,ソフトプロンプトによって参加者間の情報交換を実現する新しいFLトレーニング手法を提案する。
論文 参考訳(メタデータ) (2023-11-12T11:01:10Z) - The Best of Both Worlds: Accurate Global and Personalized Models through
Federated Learning with Data-Free Hyper-Knowledge Distillation [17.570719572024608]
FedHKD (Federated Hyper-Knowledge Distillation) は、クライアントがローカルモデルを訓練するために知識蒸留に依存する新しいFLアルゴリズムである。
他のKDベースのpFLメソッドとは異なり、FedHKDはパブリックデータセットに依存したり、サーバに生成モデルをデプロイしたりしない。
さまざまなシナリオにおける視覚的データセットに関する広範な実験を行い、FedHKDがパーソナライズおよびグローバルモデルパフォーマンスの両方において、大幅な改善を提供することを示した。
論文 参考訳(メタデータ) (2023-01-21T16:20:57Z) - Federated Learning and Meta Learning: Approaches, Applications, and
Directions [94.68423258028285]
本稿では,FL,メタラーニング,フェデレーションメタラーニング(FedMeta)について概観する。
他のチュートリアルと異なり、私たちの目標はFL、メタラーニング、FedMetaの方法論をどのように設計、最適化、進化させ、無線ネットワーク上で応用するかを探ることです。
論文 参考訳(メタデータ) (2022-10-24T10:59:29Z) - Federated Learning with Privacy-Preserving Ensemble Attention
Distillation [63.39442596910485]
Federated Learning(FL)は、多くのローカルノードがトレーニングデータを分散化しながら、中央モデルを協調的にトレーニングする機械学習パラダイムである。
本稿では,未ラベル公開データを利用した一方向オフライン知識蒸留のためのプライバシー保護FLフレームワークを提案する。
我々の技術は、既存のFLアプローチのような分散的で異質なローカルデータを使用するが、より重要なのは、プライバシー漏洩のリスクを著しく低減することです。
論文 参考訳(メタデータ) (2022-10-16T06:44:46Z) - CDKT-FL: Cross-Device Knowledge Transfer using Proxy Dataset in Federated Learning [27.84845136697669]
我々は,グローバルモデルとローカルモデル間の知識伝達の程度を研究するために,新しい知識蒸留に基づくアプローチを開発する。
提案手法は局所モデルの大幅な高速化と高いパーソナライズ性能を実現する。
論文 参考訳(メタデータ) (2022-04-04T14:49:19Z) - A Personalized Federated Learning Algorithm: an Application in Anomaly
Detection [0.6700873164609007]
フェデレートラーニング(FL)は、データプライバシと送信問題を克服する有望な方法として最近登場した。
FLでは、異なるデバイスやセンサーから収集されたデータセットを使用して、各学習を集中型モデル(サーバ)と共有するローカルモデル(クライアント)をトレーニングする。
本稿では,PC-FedAvg(Personalized FedAvg, PC-FedAvg)を提案する。
論文 参考訳(メタデータ) (2021-11-04T04:57:11Z) - Deep Transfer Learning for Multi-source Entity Linkage via Domain
Adaptation [63.24594955429465]
マルチソースエンティティリンクは、データのクリーニングやユーザ縫合といった、高インパクトなアプリケーションにおいて重要である。
AdaMELは、多ソースエンティティリンクを実行するための一般的なハイレベルな知識を学ぶディープトランスファー学習フレームワークである。
本フレームワークは,教師付き学習に基づく平均的手法よりも8.21%向上した最先端の学習結果を実現する。
論文 参考訳(メタデータ) (2021-10-27T15:20:41Z) - FedH2L: Federated Learning with Model and Statistical Heterogeneity [75.61234545520611]
フェデレートラーニング(FL)は、分散参加者が個々のデータのプライバシを犠牲にすることなく、強力なグローバルモデルを集合的に学習することを可能にする。
我々はFedH2Lを導入し、これはモデルアーキテクチャに非依存であり、参加者間で異なるデータ分散に対して堅牢である。
パラメータや勾配を共有するアプローチとは対照的に、FedH2Lは相互蒸留に依存し、参加者間で共有シードセットの後方のみを分散的に交換する。
論文 参考訳(メタデータ) (2021-01-27T10:10:18Z) - WAFFLe: Weight Anonymized Factorization for Federated Learning [88.44939168851721]
データが機密性やプライベート性を持つドメインでは、ローカルデバイスを離れることなく、分散的に学習できるメソッドには大きな価値があります。
本稿では,フェデレートラーニングのためのウェイト匿名化因子化(WAFFLe)を提案する。これは,インド・バフェット・プロセスとニューラルネットワークの重み要因の共有辞書を組み合わせたアプローチである。
論文 参考訳(メタデータ) (2020-08-13T04:26:31Z) - Multi-site fMRI Analysis Using Privacy-preserving Federated Learning and
Domain Adaptation: ABIDE Results [13.615292855384729]
高品質なディープラーニングモデルを訓練するには,大量の患者情報を集める必要がある。
患者データのプライバシを保護する必要があるため、複数の機関から中央データベースを組み立てることは困難である。
フェデレート・ラーニング(Federated Learning)は、エンティティのデータを集中化せずに、人口レベルのモデルをトレーニングすることを可能にする。
論文 参考訳(メタデータ) (2020-01-16T04:49:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。