論文の概要: Federated learning for unpaired multimodal data through a homogeneous transformer model
- arxiv url: http://arxiv.org/abs/2601.17986v1
- Date: Sun, 25 Jan 2026 20:30:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-27 15:23:08.570534
- Title: Federated learning for unpaired multimodal data through a homogeneous transformer model
- Title(参考訳): 等質変圧器モデルによる未ペアマルチモーダルデータのフェデレーション学習
- Authors: Anders Eklund,
- Abstract要約: 本稿では,フェデレートされていない基礎モデルの数学的バックボーンを確立する。
これにより、グローバルモデルは、断片化、分離、プライベートデータサイロから世界の統一された表現を学ぶことができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Training of multimodal foundation models is currently restricted to centralized data centers containing massive, aligned datasets (e.g., image-text pairs). However, in realistic federated environments, data is often unpaired and fragmented across disjoint nodes; one node may hold sensor data, while another holds textual logs. These datasets are strictly private and share no common samples. Current federated learning (FL) methods fail in this regime, as they assume local clients possess aligned pairs or require sharing raw feature embeddings, which violates data sovereignty. We propose a novel framework to train a global multimodal transformer across decentralized nodes with disjoint modalities. We introduce a small public anchor set to align disjoint private manifolds. Using Gram matrices calculated from these public anchors, we enforce semantic alignment across modalities through centered kernel alignment without ever transmitting private samples, offering a mathematically superior privacy guarantee compared to prototype sharing. Further, we introduce a subspace-stabilized fine-tuning method to handle FL with huge transformer models. We strictly decouple domain-specific magnitude shifts from semantic direction, ensuring that nodes with varying sensor characteristics align geometrically to the global consensus. Lastly, we propose precision weighted averaging, where efficiently obtained uncertainty estimates are used to downweight uncertain nodes. This paper establishes the mathematical backbone for federated unpaired foundation models, enabling a global model to learn a unified representation of the world from fragmented, disjoint, and private data silos without requiring centralized storage or paired samples.
- Abstract(参考訳): マルチモーダルファンデーションモデルのトレーニングは現在、大量のデータセット(例:画像とテキストのペア)を含む集中型データセンタに制限されている。
しかし、現実的なフェデレーション環境では、データはしばしば不整合ノード間で断片化され、あるノードはセンサーデータを保持し、別のノードはテキストログを保持する。
これらのデータセットは厳密にプライベートであり、共通のサンプルを共有しない。
現在のFL(Federated Learning)メソッドは、ローカルクライアントが整列したペアを持っているか、あるいはデータ主権に反する生の機能を埋め込む必要があると仮定して、この体制で失敗する。
本稿では,分散化ノード間の大域的マルチモーダルトランスフォーマを不整合モードで学習するための新しいフレームワークを提案する。
我々は、非連結なプライベート多様体を整列する小さな公的なアンカー集合を導入する。
これらの公的なアンカーから計算されたグラム行列を用いて、我々は、プライベートサンプルを送信することなく、カーネルアライメントを通じて、モジュール間のセマンティックアライメントを強制し、プロトタイプの共有よりも数学的に優れたプライバシー保証を提供する。
さらに,大規模変圧器モデルを用いたFL処理のためのサブスペース安定化微調整手法を提案する。
ドメイン固有の大きさのシフトを意味的方向から厳密に切り離し、センサ特性の異なるノードがグローバルコンセンサスと幾何的に一致することを保証します。
最後に, 精度の高い重み付き平均化を提案し, 効率よく得られた不確かさ推定を重み付き不確かさノードのダウンウェイトに利用する。
本稿では,フェデレートされていない基礎モデルの数学的バックボーンを確立し,グローバルモデルにより,集中記憶やペア化サンプルを必要とせず,断片化,不連続化,プライベートデータサイロから世界統一表現を学習することを可能にする。
関連論文リスト
- Federated Learning Meets LLMs: Feature Extraction From Heterogeneous Clients [0.0]
フェデレートラーニング(FL)は、生データを共有せずに協調的なモデルトレーニングを可能にする。
我々は,事前学習された大規模言語モデル(LLM)を普遍的特徴抽出器として利用するフレームワークであるFedLLM-Alignを提案する。
冠動脈疾患予測におけるFedLLM-Alignの評価は,シミュレートされたスキーマ分岐を用いた分割データセットを用いて行われる。
論文 参考訳(メタデータ) (2025-09-29T14:06:52Z) - Perfectly-Private Analog Secure Aggregation in Federated Learning [51.61616734974475]
連合学習では、複数のパーティがモデルをローカルにトレーニングし、パラメータを中央サーバと共有する。
本稿では,有限場ではなくトーラスを用いた新しいセキュアパラメータアグリゲーション法を提案する。
論文 参考訳(メタデータ) (2025-09-10T15:22:40Z) - OmniFC: Rethinking Federated Clustering via Lossless and Secure Distance Reconstruction [10.326927761316986]
フェデレーションクラスタリングは、生データを共有せずに、分散クライアント全体にわたるグローバルクラスタ構造を見つけることを目的としている。
1)コラボレーション中のプライバシー漏洩と,(2)プロキシ情報の集約による堅牢性低下の2つが重要な課題である。
我々は,統一的でモデルに依存しないフレームワークであるOmni Federated Clusteringを提案する。
論文 参考訳(メタデータ) (2025-05-19T13:04:59Z) - PeFAD: A Parameter-Efficient Federated Framework for Time Series Anomaly Detection [51.20479454379662]
私たちはaを提案します。
フェデレートされた異常検出フレームワークであるPeFADは、プライバシーの懸念が高まっている。
我々は、4つの実際のデータセットに対して広範な評価を行い、PeFADは既存の最先端ベースラインを最大28.74%上回っている。
論文 参考訳(メタデータ) (2024-06-04T13:51:08Z) - Decentralized Directed Collaboration for Personalized Federated Learning [39.29794569421094]
我々は分散トレーニングモデル計算を行う分散パーソナライズドラーニング(DPFL)に集中する。
我々は, textbfDecentralized textbfFederated textbfPartial textbfGradient textbfPedGP を組み込んだ協調型フレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-28T06:52:19Z) - Fed-MIWAE: Federated Imputation of Incomplete Data via Deep Generative
Models [5.373862368597948]
フェデレーション学習は、明示的なデータ交換を必要とせずに、複数のローカルデータセット上で機械学習モデルのトレーニングを可能にする。
欠落したデータを扱う戦略を含むデータ前処理は、現実世界のフェデレートされた学習デプロイメントにおいて、依然として大きなボトルネックとなっている。
本稿では,変分オートエンコーダをベースとした遅延変数モデルであるFed-MIWAEを提案する。
論文 参考訳(メタデータ) (2023-04-17T08:14:08Z) - Divide and Contrast: Source-free Domain Adaptation via Adaptive
Contrastive Learning [122.62311703151215]
Divide and Contrast (DaC) は、それぞれの制限を回避しつつ、両方の世界の善良な端を接続することを目的としている。
DaCは、ターゲットデータをソースライクなサンプルとターゲット固有なサンプルに分割する。
さらに、ソースライクなドメインと、メモリバンクベースの最大平均離散性(MMD)損失を用いて、ターゲット固有のサンプルとを整合させて、分散ミスマッチを低減する。
論文 参考訳(メタデータ) (2022-11-12T09:21:49Z) - Towards Understanding and Mitigating Dimensional Collapse in Heterogeneous Federated Learning [112.69497636932955]
フェデレートラーニングは、プライバシを考慮したデータ共有を必要とせずに、さまざまなクライアントでモデルをトレーニングすることを目的としている。
本研究では,データの不均一性がグローバル集約モデルの表現に与える影響について検討する。
フェデレーション学習における次元的崩壊を効果的に緩和する新しい手法である sc FedDecorr を提案する。
論文 参考訳(メタデータ) (2022-10-01T09:04:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。