論文の概要: Learning Reconfigurable Representations for Multimodal Federated Learning with Missing Data
- arxiv url: http://arxiv.org/abs/2510.22880v1
- Date: Mon, 27 Oct 2025 00:09:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 15:28:15.406991
- Title: Learning Reconfigurable Representations for Multimodal Federated Learning with Missing Data
- Title(参考訳): 欠落データを用いたマルチモーダル・フェデレーション学習のための再構成可能表現の学習
- Authors: Duong M. Nguyen, Trong Nghia Hoang, Thanh Trung Huynh, Quoc Viet Hung Nguyen, Phi Le Nguyen,
- Abstract要約: 学習可能なクライアント側埋め込み制御に基づく局所適応表現を特徴とする新しいフェデレート学習フレームワークを提案する。
これらの埋め込みは、グローバルに集約された表現と各クライアントのローカルコンテキストを一致させる再構成信号として機能する。
提案手法は, 厳密なデータ不完全性の下で最大36.45%の性能向上を実現する。
- 参考スコア(独自算出の注目度): 24.083180898232417
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multimodal federated learning in real-world settings often encounters incomplete and heterogeneous data across clients. This results in misaligned local feature representations that limit the effectiveness of model aggregation. Unlike prior work that assumes either differing modality sets without missing input features or a shared modality set with missing features across clients, we consider a more general and realistic setting where each client observes a different subset of modalities and might also have missing input features within each modality. To address the resulting misalignment in learned representations, we propose a new federated learning framework featuring locally adaptive representations based on learnable client-side embedding controls that encode each client's data-missing patterns. These embeddings serve as reconfiguration signals that align the globally aggregated representation with each client's local context, enabling more effective use of shared information. Furthermore, the embedding controls can be algorithmically aggregated across clients with similar data-missing patterns to enhance the robustness of reconfiguration signals in adapting the global representation. Empirical results on multiple federated multimodal benchmarks with diverse data-missing patterns across clients demonstrate the efficacy of the proposed method, achieving up to 36.45\% performance improvement under severe data incompleteness. The method is also supported by a theoretical analysis with an explicit performance bound that matches our empirical observations. Our source codes are provided at https://github.com/nmduonggg/PEPSY
- Abstract(参考訳): 実環境におけるマルチモーダル・フェデレート学習は、クライアント間で不完全で不均一なデータに遭遇することが多い。
この結果、モデルアグリゲーションの有効性を制限する局所的特徴表現が不一致となる。
入力特徴を欠くことなくモダリティセットが異なると仮定する以前の作業と異なり、各クライアントが異なるモダリティのサブセットを観察し、各モダリティ内で入力特徴を欠くような、より一般的で現実的な設定を考える。
そこで本研究では,各クライアントのデータ欠落パターンを符号化した学習可能なクライアント側埋め込み制御に基づいて,局所適応型表現を特徴とする新たなフェデレーション学習フレームワークを提案する。
これらの埋め込みは、グローバルに集約された表現を各クライアントのローカルコンテキストと整合させる再構成信号として機能し、共有情報のより効率的な利用を可能にする。
さらに、埋め込み制御は、同様のデータ損失パターンを持つクライアント間でアルゴリズム的に集約され、グローバル表現に適応する際の再構成信号の堅牢性を高めることができる。
クライアント間で多種多様なデータ欠落パターンを持つマルチモーダルベンチマークの実証実験結果から提案手法の有効性が示され, 厳密なデータ不完全性下では最大36.45倍の性能向上が達成された。
この手法は、経験的観察と一致する明示的な性能境界を持つ理論的解析によっても支持される。
ソースコードはhttps://github.com/nmduonggg/PEPSYで公開されています。
関連論文リスト
- Byzantine Resilient Federated Multi-Task Representation Learning [1.6114012813668932]
欠陥や悪意のあるエージェントを扱うビザンチン耐性のマルチタスク表現学習フレームワークBR-MTRLを提案する。
このアプローチでは、クライアント固有の最終層を除いて、すべてのクライアントが固定層を共有する、共有ニューラルネットワークモデルによる表現学習を活用しています。
論文 参考訳(メタデータ) (2025-03-24T23:26:28Z) - An Aggregation-Free Federated Learning for Tackling Data Heterogeneity [50.44021981013037]
フェデレートラーニング(FL)は、分散データセットからの知識を活用する効果に頼っている。
従来のFLメソッドでは、クライアントが前回のトレーニングラウンドからサーバが集約したグローバルモデルに基づいてローカルモデルを更新するアグリゲート-then-adaptフレームワークを採用している。
我々は,新しいアグリゲーションフリーFLアルゴリズムであるFedAFを紹介する。
論文 参考訳(メタデータ) (2024-04-29T05:55:23Z) - Unlocking the Potential of Prompt-Tuning in Bridging Generalized and
Personalized Federated Learning [49.72857433721424]
Vision Transformer (ViT) と Visual Prompt Tuning (VPT) は、様々なコンピュータビジョンタスクの効率を改善して最先端のパフォーマンスを実現する。
本稿では,GFL(Generalized FL)とPFL(Personalized FL)を組み合わせた新しいアルゴリズムSGPTを提案する。
論文 参考訳(メタデータ) (2023-10-27T17:22:09Z) - Personalized Federated Learning via Amortized Bayesian Meta-Learning [21.126405589760367]
我々は,Amortized Bayesian Meta-Learningを通じて,パーソナライズド・フェデレーション・ラーニングの新しい視点を紹介する。
具体的には,クライアント間の階層的変動推論を用いたemphFedABMLという新しいアルゴリズムを提案する。
我々の理論解析は平均一般化誤差の上限を提供し、未知のデータに対する一般化性能を保証する。
論文 参考訳(メタデータ) (2023-07-05T11:58:58Z) - Straggler-Resilient Personalized Federated Learning [55.54344312542944]
フェデレーション学習は、プライバシと通信の制限を尊重しながら、クライアントの大規模なネットワークに分散されたサンプルからのトレーニングモデルを可能にする。
これら2つのハードルを同時に処理する理論的なスピードアップを保証する新しいアルゴリズム手法を開発した。
提案手法は,すべてのクライアントのデータを用いてグローバルな共通表現を見つけ,各クライアントに対してパーソナライズされたソリューションにつながるパラメータの集合を学習するために,表現学習理論からのアイデアに依存している。
論文 参考訳(メタデータ) (2022-06-05T01:14:46Z) - Exploiting Shared Representations for Personalized Federated Learning [54.65133770989836]
本稿では,クライアント間の共有データ表現と,クライアント毎のユニークなローカルヘッダを学習するための,新しいフェデレーション学習フレームワークとアルゴリズムを提案する。
提案アルゴリズムは, クライアント間の分散計算能力を利用して, 表現の更新毎に低次元の局所パラメータに対して, 多数の局所更新を行う。
この結果は、データ分布間の共有低次元表現を学習することを目的とした、幅広い種類の問題に対するフェデレーション学習以上の関心を持っている。
論文 参考訳(メタデータ) (2021-02-14T05:36:25Z) - Federated Unsupervised Representation Learning [56.715917111878106]
フェデレート非教師表現学習(FURL)と呼ばれるフェデレーション学習における新しい問題を定式化し、教師なしの共通表現モデルを学習する。
FedCAは2つの主要なモジュールで構成されている: 辞書モジュールは、各クライアントからのサンプルの表現を集約し、表現空間の整合性のためにすべてのクライアントと共有し、アライメントモジュールは、公開データに基づいてトレーニングされたベースモデル上で各クライアントの表現を整合させる。
論文 参考訳(メタデータ) (2020-10-18T13:28:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。