論文の概要: BlendFL: Blended Federated Learning for Handling Multimodal Data Heterogeneity
- arxiv url: http://arxiv.org/abs/2510.13266v1
- Date: Wed, 15 Oct 2025 08:10:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-16 20:13:28.564951
- Title: BlendFL: Blended Federated Learning for Handling Multimodal Data Heterogeneity
- Title(参考訳): BlendFL: マルチモーダルデータ不均一性を扱うためのブレンドフェデレーションラーニング
- Authors: Alejandro Guerra-Manzanares, Omar El-Herraoui, Michail Maniatakos, Farah E. Shamout,
- Abstract要約: BlendFLは、水平と垂直のFLの原理を、同期的で非制限的な方法でシームレスにブレンドする新しいFLフレームワークである。
BlendFLは分散推論機構を備えており、クライアントが協調的にトレーニングされたローカルモデルを実行できるようにする。
大規模な実世界のマルチモーダル医療データセットを用いて,BlendFLや他の最先端のベースラインを3つの分類タスクに基づいて訓練し,評価した。
- 参考スコア(独自算出の注目度): 44.03774830953328
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: One of the key challenges of collaborative machine learning, without data sharing, is multimodal data heterogeneity in real-world settings. While Federated Learning (FL) enables model training across multiple clients, existing frameworks, such as horizontal and vertical FL, are only effective in `ideal' settings that meet specific assumptions. Hence, they struggle to address scenarios where neither all modalities nor all samples are represented across the participating clients. To address this gap, we propose BlendFL, a novel FL framework that seamlessly blends the principles of horizontal and vertical FL in a synchronized and non-restrictive fashion despite the asymmetry across clients. Specifically, any client within BlendFL can benefit from either of the approaches, or both simultaneously, according to its available dataset. In addition, BlendFL features a decentralized inference mechanism, empowering clients to run collaboratively trained local models using available local data, thereby reducing latency and reliance on central servers for inference. We also introduce BlendAvg, an adaptive global model aggregation strategy that prioritizes collaborative model updates based on each client's performance. We trained and evaluated BlendFL and other state-of-the-art baselines on three classification tasks using a large-scale real-world multimodal medical dataset and a popular multimodal benchmark. Our results highlight BlendFL's superior performance for both multimodal and unimodal classification. Ablation studies demonstrate BlendFL's faster convergence compared to traditional approaches, accelerating collaborative learning. Overall, in our study we highlight the potential of BlendFL for handling multimodal data heterogeneity for collaborative learning in real-world settings where data privacy is crucial, such as in healthcare and finance.
- Abstract(参考訳): データ共有のないコラボレーティブ機械学習における重要な課題の1つは、現実世界の設定におけるマルチモーダルデータの不均一性である。
フェデレートラーニング(FL)は複数のクライアントにわたるモデルトレーニングを可能にするが、水平および垂直のFLのような既存のフレームワークは、特定の前提を満たす‘理想的’設定でのみ有効である。
したがって、すべてのモダリティもすべてのサンプルも参加するクライアント間で表現されないシナリオに対処するのに苦労する。
このギャップに対処するために,クライアント間の非対称性にもかかわらず,水平および垂直FLの原理を同期的かつ非制限的にシームレスにブレンドする,新しいFLフレームワークであるBlendFLを提案する。
具体的には、利用可能なデータセットによると、BlendFL内の任意のクライアントは、どちらのアプローチでも、同時に両方のアプローチの恩恵を受けることができる。
さらに、BlendFLは分散推論機構を備えており、クライアントが利用可能なローカルデータを使用して協調的にトレーニングされたローカルモデルを実行できるようにする。
また、各クライアントのパフォーマンスに基づいて協調的なモデル更新を優先順位付けするアダプティブグローバルモデルアグリゲーション戦略であるBlendAvgを紹介します。
大規模な実世界のマルチモーダル医療データセットと人気のあるマルチモーダルベンチマークを用いて,BlendFLや他の最先端のベースラインを3つの分類タスクに基づいて訓練し,評価した。
以上の結果から,BlendFLのマルチモーダル分類とユニモーダル分類において優れた性能を示した。
アブレーション研究は、BlendFLが従来のアプローチよりも早く収束し、協調学習を加速していることを示している。
全体としては、医療や金融など、データのプライバシが不可欠である現実世界において、協調学習のためのマルチモーダルデータの均一性を扱うBlendFLの可能性を強調した。
関連論文リスト
- Client-Centric Federated Adaptive Optimization [78.30827455292827]
Federated Learning(FL)は、クライアントが独自のデータをプライベートに保ちながら、協調的にモデルをトレーニングする分散学習パラダイムである。
本稿では,新しいフェデレーション最適化手法のクラスであるフェデレーション中心適応最適化を提案する。
論文 参考訳(メタデータ) (2025-01-17T04:00:50Z) - FedPAE: Peer-Adaptive Ensemble Learning for Asynchronous and Model-Heterogeneous Federated Learning [9.084674176224109]
フェデレートラーニング(FL)は、分散データソースを持つ複数のクライアントが、データのプライバシを損なうことなく、共同で共有モデルをトレーニングすることを可能にする。
我々は、モデルの不均一性と非同期学習をサポートする完全分散pFLアルゴリズムであるFederated Peer-Adaptive Ensemble Learning (FedPAE)を紹介する。
提案手法では,ピアツーピアモデル共有機構とアンサンブル選択を用いて,局所情報とグローバル情報とのより洗練されたバランスを実現する。
論文 参考訳(メタデータ) (2024-10-17T22:47:19Z) - FedMAP: Unlocking Potential in Personalized Federated Learning through Bi-Level MAP Optimization [11.040916982022978]
フェデレートラーニング(FL)は、分散データに基づく機械学習モデルの協調トレーニングを可能にする。
クライアント間でのデータはしばしば、クラス不均衡、特徴分散スキュー、サンプルサイズ不均衡、その他の現象によって大きく異なる。
本稿では,バイレベル最適化を用いた新しいベイズPFLフレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-29T11:28:06Z) - Multimodal Federated Learning via Contrastive Representation Ensemble [17.08211358391482]
フェデレーテッド・ラーニング(FL)は、集中型機械学習に代わるプライバシ意識の代替手段として機能する。
既存のFLメソッドはすべて、モデルアグリゲーションを単一のモダリティレベルに依存している。
マルチモーダルFL(CreamFL)のためのコントラスト表現アンサンブルとアグリゲーションを提案する。
論文 参考訳(メタデータ) (2023-02-17T14:17:44Z) - Improving Privacy-Preserving Vertical Federated Learning by Efficient Communication with ADMM [62.62684911017472]
フェデレートラーニング(FL)により、デバイスは共有モデルを共同でトレーニングし、トレーニングデータをプライバシ目的でローカルに保つことができる。
マルチヘッド(VIM)を備えたVFLフレームワークを導入し、各クライアントの別々のコントリビューションを考慮に入れます。
VIMは最先端技術に比べて性能が著しく向上し、収束が速い。
論文 参考訳(メタデータ) (2022-07-20T23:14:33Z) - Federated Multi-Task Learning under a Mixture of Distributions [10.00087964926414]
Federated Learning(FL)は、機械学習モデルのデバイス上での協調トレーニングのためのフレームワークである。
FLにおける最初の取り組みは、クライアント間で平均的なパフォーマンスを持つ単一のグローバルモデルを学ぶことに焦点を当てたが、グローバルモデルは、与えられたクライアントに対して任意に悪いかもしれない。
我々は,各局所データ分布が未知の基底分布の混合であるというフレキシブルな仮定の下で,フェデレーションMTLについて検討した。
論文 参考訳(メタデータ) (2021-08-23T15:47:53Z) - Multi-Center Federated Learning [62.32725938999433]
フェデレートラーニング(FL)は、分散ラーニングにおけるデータのプライバシを保護する。
単にデータにアクセスせずに、ユーザーからローカルな勾配を収集するだけだ。
本稿では,新しいマルチセンターアグリゲーション機構を提案する。
論文 参考訳(メタデータ) (2021-08-19T12:20:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。