論文の概要: Federated style aware transformer aggregation of representations
- arxiv url: http://arxiv.org/abs/2511.18841v1
- Date: Mon, 24 Nov 2025 07:24:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:25.079792
- Title: Federated style aware transformer aggregation of representations
- Title(参考訳): 表現のフェデレートされたスタイル認識型トランスフォーマーアグリゲーション
- Authors: Mincheol Jeon, Euinam Huh,
- Abstract要約: FedSTARは、クライアント固有のスタイル要素を共有コンテンツ表現から切り離す、スタイル対応のフェデレーション学習フレームワークである。
完全なモデルパラメータの代わりに、コンパクトなプロトタイプとスタイルベクターを交換することで、FedSTARは通信オーバーヘッドを大幅に削減する。
- 参考スコア(独自算出の注目度): 2.8882449633642793
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Personalized Federated Learning (PFL) faces persistent challenges, including domain heterogeneity from diverse client data, data imbalance due to skewed participation, and strict communication constraints. Traditional federated learning often lacks personalization, as a single global model cannot capture client-specific characteristics, leading to biased predictions and poor generalization, especially for clients with highly divergent data distributions. To address these issues, we propose FedSTAR, a style-aware federated learning framework that disentangles client-specific style factors from shared content representations. FedSTAR aggregates class-wise prototypes using a Transformer-based attention mechanism, allowing the server to adaptively weight client contributions while preserving personalization. Furthermore, by exchanging compact prototypes and style vectors instead of full model parameters, FedSTAR significantly reduces communication overhead. Experimental results demonstrate that combining content-style disentanglement with attention-driven prototype aggregation improves personalization and robustness in heterogeneous environments without increasing communication cost.
- Abstract(参考訳): パーソナライズド・フェデレーション・ラーニング(PFL)は、多様なクライアントデータからのドメインの不均一性、歪んだ参加によるデータ不均衡、厳密な通信制約など、永続的な課題に直面します。
従来のフェデレートラーニングにはパーソナライズが欠如することが多く、単一のグローバルモデルではクライアント固有の特徴を捉えられず、特に高度に分散したデータ分布を持つクライアントにおいて、偏りのある予測や一般化が不十分になる。
これらの問題に対処するため、我々は、クライアント固有のスタイル要素を共有コンテンツ表現から切り離すスタイル対応のフェデレーション学習フレームワークであるFedSTARを提案する。
FedSTARはTransformerベースのアテンションメカニズムを使用して、クラスワイズプロトタイプを集約する。
さらに、完全なモデルパラメータの代わりにコンパクトなプロトタイプとスタイルベクターを交換することで、FedSTARは通信オーバーヘッドを大幅に削減する。
実験により,コンテンツスタイルのアンタングルメントと注意駆動型プロトタイプアグリゲーションを組み合わせることで,コミュニケーションコストを増大させることなく,異種環境におけるパーソナライズとロバスト性を向上できることが示された。
関連論文リスト
- Towards Federated Clustering: A Client-wise Private Graph Aggregation Framework [57.04850867402913]
フェデレーションクラスタリングは、分散化されたラベルのないデータからパターンを抽出する課題に対処する。
本研究では,プライバシ保護のための知識共有媒体として,局所構造グラフを革新的に活用する新しいアルゴリズムSPP-FGCを提案する。
我々のフレームワークは最先端のパフォーマンスを実現し、認証可能なプライバシー保証を維持しつつ、フェデレーションベースラインよりも最大10%(NMI)のクラスタリング精度を向上させる。
論文 参考訳(メタデータ) (2025-11-14T03:05:22Z) - CO-PFL: Contribution-Oriented Personalized Federated Learning for Heterogeneous Networks [51.43780477302533]
コントリビューション指向型PFL(CO-PFL)は,グローバルアグリゲーションに対する各クライアントのコントリビューションを動的に推定するアルゴリズムである。
CO-PFLは、パーソナライズ精度、堅牢性、スケーラビリティ、収束安定性において、最先端の手法を一貫して超越している。
論文 参考訳(メタデータ) (2025-10-23T05:10:06Z) - FedPPA: Progressive Parameter Alignment for Personalized Federated Learning [0.9931624906346306]
フェデレートラーニング(FL)は、複数のクライアントがデータを共有せずに協調的にモデルをトレーニングできる、分散されたプライバシ保護機械学習パラダイムとして設計されている。
実世界のシナリオでは、クライアントは不均一な計算資源を持ち、非独立で同一の分散データ(非IID)を保持し、トレーニング中に重大な課題を生じさせる。
本稿では,クライアント間の共通レイヤの重み付けとグローバルモデルの重み付けを段階的に整合させるプログレッシブアライメント(FedPPA)を提案する。
MNIST、FMNIST、CIFAR-10を含む3つの画像分類データセットの実験は、FedPPAが既存のFLアルゴリズムより一貫して優れていることを示した。
論文 参考訳(メタデータ) (2025-10-16T14:03:05Z) - Not All Clients Are Equal: Collaborative Model Personalization on Heterogeneous Multi-Modal Clients [59.52341877720199]
計算コストを伴わずに異種アーキテクチャ間の知識共有を可能にするFedMosaicを提案する。
実世界のタスクの多様性を模倣するために,40の異なるタスクにまたがるマルチモーダルPFLベンチマークを提案する。
実証研究は、FedMosaicが最先端のPFL法より優れていることを示している。
論文 参考訳(メタデータ) (2025-05-20T09:17:07Z) - FedRIR: Rethinking Information Representation in Federated Learning [7.765917932796046]
ネットワークエッジのモバイルおよびWeb-of-Things(WoT)デバイスは、機械学習アプリケーションのために膨大な量のデータを生成する。
ネットワークエッジのモバイルおよびWeb-of-Things(WoT)デバイスは、機械学習アプリケーションのために膨大な量のデータを生成する。
論文 参考訳(メタデータ) (2025-02-02T17:17:29Z) - FedAli: Personalized Federated Learning Alignment with Prototype Layers for Generalized Mobile Services [9.683642138601464]
フェデレートアライメント(Federated Alignment, FedAli)は、プロトタイプベースの正規化技術であり、パーソナライズされた適応の堅牢性を強化しながら、クライアント間のアライメントを強化する。
コアとなるFedAliは、一般化を強化するために、人間のメモリにインスパイアされたPrototypesレイヤによるアライメントを導入した。
実験の結果,FedAliは不均一な環境下で強いパーソナライゼーションを維持しつつ,クライアントの一般化を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2024-11-15T21:35:21Z) - Personalized federated learning based on feature fusion [2.943623084019036]
フェデレートされた学習により、分散クライアントは、クライアントのプライバシを保護するためにデータをローカルに保存しながら、トレーニングで協力することができる。
pFedPMと呼ばれる個人化学習手法を提案する。
このプロセスでは、従来のグラデーションアップロードを機能アップロードに置き換え、通信コストを削減し、異種クライアントモデルを可能にする。
論文 参考訳(メタデータ) (2024-06-24T12:16:51Z) - An Aggregation-Free Federated Learning for Tackling Data Heterogeneity [50.44021981013037]
フェデレートラーニング(FL)は、分散データセットからの知識を活用する効果に頼っている。
従来のFLメソッドでは、クライアントが前回のトレーニングラウンドからサーバが集約したグローバルモデルに基づいてローカルモデルを更新するアグリゲート-then-adaptフレームワークを採用している。
我々は,新しいアグリゲーションフリーFLアルゴリズムであるFedAFを紹介する。
論文 参考訳(メタデータ) (2024-04-29T05:55:23Z) - Communication-Efficient Personalized Federated Learning for Speech-to-Text Tasks [64.02867484165476]
プライバシー保護と法的規制を満たすために、連邦学習(FL)は、音声テキスト(S2T)システムのトレーニングにおいて大きな注目を集めている。
S2Tタスクで一般的に使用されるFLアプローチ(textscFedAvg)は、通常、広範な通信オーバーヘッドに悩まされる。
我々は、クライアント側チューニングとサーバとのインタラクションのための軽量なLoRAモジュールであるtextscFedLoRA と、$k$-near を備えたグローバルモデルである textscFedMem を導入したパーソナライズされたS2Tフレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-18T15:39:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。