論文の概要: Replacing Parameters with Preferences: Federated Alignment of Heterogeneous Vision-Language Models
- arxiv url: http://arxiv.org/abs/2602.00485v1
- Date: Sat, 31 Jan 2026 03:11:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:33.216431
- Title: Replacing Parameters with Preferences: Federated Alignment of Heterogeneous Vision-Language Models
- Title(参考訳): 条件付きリプレーティングパラメータ:不均一な視覚-言語モデルのフェデレートアライメント
- Authors: Shule Lu, Yujing Wang, Hainan Zhang, Xiaoshan Yang, Hongwei Zheng, Yongxin Tong, Changsheng Xu, Zhiming Zheng,
- Abstract要約: パラメータを好みに置き換えることは、よりスケーラブルでプライバシに保護される未来を表している、と私たちは主張する。
ヘテロジニアスVLMのためのGRPOとMixture-of-Rewardsを用いた協調アライメントフレームワークであるMoRを提案する。
MoRは、一般化、堅牢性、およびクロスクライアント適応性において、連邦化されたアライメントベースラインを一貫して上回る。
- 参考スコア(独自算出の注目度): 63.70401095689976
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: VLMs have broad potential in privacy-sensitive domains such as healthcare and finance, yet strict data-sharing constraints render centralized training infeasible. FL mitigates this issue by enabling decentralized training, but practical deployments face challenges due to client heterogeneity in computational resources, application requirements, and model architectures. We argue that while replacing data with model parameters characterizes the present of FL, replacing parameters with preferences represents a more scalable and privacy-preserving future. Motivated by this perspective, we propose MoR, a federated alignment framework based on GRPO with Mixture-of-Rewards for heterogeneous VLMs. MoR initializes a visual foundation model as a KL-regularized reference, while each client locally trains a reward model from local preference annotations, capturing specific evaluation signals without exposing raw data. To reconcile heterogeneous rewards, we introduce a routing-based fusion mechanism that adaptively aggregates client reward signals. Finally, the server performs GRPO with this mixed reward to optimize the base VLM. Experiments on three public VQA benchmarks demonstrate that MoR consistently outperforms federated alignment baselines in generalization, robustness, and cross-client adaptability. Our approach provides a scalable solution for privacy-preserving alignment of heterogeneous VLMs under federated settings.
- Abstract(参考訳): VLMは医療や金融といったプライバシに敏感な分野において大きな可能性を秘めているが、厳格なデータ共有の制約は集中的なトレーニングを不可能にしている。
FLは分散トレーニングを有効にすることでこの問題を軽減するが、実際のデプロイは計算リソース、アプリケーション要件、モデルアーキテクチャにおけるクライアントの不均一性によって困難に直面している。
モデルパラメーターでデータを置き換えることはFLの現在を特徴付けるが、パラメーターを好みで置き換えることは、よりスケーラブルでプライバシに保護される未来を意味すると論じる。
この観点から、不均一なVLMのためのGRPOとMixture-of-RewardsをベースとしたアライメントフレームワークであるMoRを提案する。
MoRは視覚基盤モデルをKL規則化された参照として初期化し、各クライアントはローカルの好みアノテーションから報酬モデルを訓練し、生データを公開せずに特定の評価信号をキャプチャする。
不均一な報酬を調整するために、クライアントの報酬信号を適応的に集約するルーティングベースの融合機構を導入する。
最後に、サーバはこの混合報酬でGRPOを実行し、ベースVLMを最適化する。
3つのパブリックなVQAベンチマークの実験は、MoRが一般化、堅牢性、およびクロスクライアント適応性において、連邦化されたアライメントベースラインを一貫して上回っていることを示している。
我々のアプローチは、フェデレートされた設定下での不均一なVLMのプライバシー保護アライメントにスケーラブルなソリューションを提供する。
関連論文リスト
- Adaptive Dual-Weighting Framework for Federated Learning via Out-of-Distribution Detection [53.45696787935487]
Federated Learning (FL)は、大規模分散サービスノード間の協調的なモデルトレーニングを可能にする。
実世界のサービス指向デプロイメントでは、異種ユーザ、デバイス、アプリケーションシナリオによって生成されたデータは本質的にIIDではない。
FLoodは、オフ・オブ・ディストリビューション(OOD)検出にインスパイアされた新しいFLフレームワークである。
論文 参考訳(メタデータ) (2026-02-01T05:54:59Z) - Generalized and Personalized Federated Learning with Foundation Models via Orthogonal Transformations [4.008780119020479]
Federated Learningは、集中的なデータ収集を必要とせずに、分散化されたクライアントやローカルデータを保持するデバイス間でモデルをトレーニングすることを目的としている。
我々は,ブラックボックス基盤モデルを活用した新しいアプローチであるFedOTを紹介する。
FedOTは、さまざまなクライアント間の勾配競合を緩和し、セマンティックな整合性を保持し、実質的なデータの存在下でも堅牢なパフォーマンスを達成する。
論文 参考訳(メタデータ) (2025-05-26T12:18:24Z) - Client-Centric Federated Adaptive Optimization [78.30827455292827]
Federated Learning(FL)は、クライアントが独自のデータをプライベートに保ちながら、協調的にモデルをトレーニングする分散学習パラダイムである。
本稿では,新しいフェデレーション最適化手法のクラスであるフェデレーション中心適応最適化を提案する。
論文 参考訳(メタデータ) (2025-01-17T04:00:50Z) - Hybrid-Regularized Magnitude Pruning for Robust Federated Learning under Covariate Shift [2.298932494750101]
クライアント側トレーニング分布の不整合がフェデレート学習モデルの性能を著しく低下させることを示す。
本稿では,ニューラルネットワークの疎結合性,冗長性,堅牢性を改善するために,フラニングとクライアントトレーニングの正規化を組み合わせた新しいFLフレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-19T16:22:37Z) - An Architecture Built for Federated Learning: Addressing Data Heterogeneity through Adaptive Normalization-Free Feature Recalibration [0.3481075494213406]
We propose Adaptive Normalization-free Feature Recalibration (ANFR) to combat heterogeneous data in Federated Learning (FL)。
ANFRは、ウェイト標準化とチャネルアテンションを組み合わせて、特徴マップの学習可能なスケーリング要素を生成する。
実験により、ANFRは様々なアグリゲーション法で確立されたベースラインを一貫して上回っていることが示された。
論文 参考訳(メタデータ) (2024-10-02T20:16:56Z) - Towards Instance-adaptive Inference for Federated Learning [80.38701896056828]
Federated Learning(FL)は、複数のクライアントがローカルトレーニングを集約することで、強力なグローバルモデルを学ぶことができる分散学習パラダイムである。
本稿では,FedInsという新しいFLアルゴリズムを提案する。
我々のFedInsは、Tiny-ImageNet上での通信コストが15%未満で、トップパフォーマンスの手法に対して6.64%の改善など、最先端のFLアルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-08-11T09:58:47Z) - Personalized Federated Learning under Mixture of Distributions [98.25444470990107]
本稿では,ガウス混合モデル(GMM)を用いたPFL(Personalized Federated Learning)を提案する。
FedGMMはオーバーヘッドを最小限に抑え、新しいクライアントに適応する付加的なアドバンテージを持ち、不確実な定量化を可能にします。
PFL分類と新しいサンプル検出の両方において, 合成データセットとベンチマークデータセットの実証評価により, 提案手法の優れた性能を示した。
論文 参考訳(メタデータ) (2023-05-01T20:04:46Z) - Local-Adaptive Face Recognition via Graph-based Meta-Clustering and
Regularized Adaptation [21.08555249703121]
局所適応顔認識(LaFR)と呼ばれる新しい問題設定を導入する。
LaFRは、ローカルに適応したモデルを自動かつ非監視にトレーニングすることで、最適なパフォーマンスを実現することを目指している。
更新された局所モデルに対して,単純なフェデレーションアグリゲーションにより,LaFRはグローバルモデルをさらに改善できることを示す。
論文 参考訳(メタデータ) (2022-03-27T15:20:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。