論文の概要: RefProtoFL: Communication-Efficient Federated Learning via External-Referenced Prototype Alignment
- arxiv url: http://arxiv.org/abs/2601.14746v1
- Date: Wed, 21 Jan 2026 08:01:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-22 21:27:50.287523
- Title: RefProtoFL: Communication-Efficient Federated Learning via External-Referenced Prototype Alignment
- Title(参考訳): RefProtoFL:外部参照型プロトタイプアライメントによるコミュニケーション効率の良いフェデレーションラーニング
- Authors: Hongyue Wu, Hangyu Li, Guodong Fan, Haoran Zhu, Shizhan Chen, Zhiyong Feng,
- Abstract要約: フェデレートラーニング(FL)は、エッジ環境で生データを共有せずに協調的なモデルトレーニングを可能にする。
本稿では,外部参照型プロトタイプアライメントを統合した通信効率の高いFLフレームワークRefProtoFLを提案する。
RefProtoFLは、最先端のプロトタイプベースのFLベースラインよりも高い分類精度が得られることを示す。
- 参考スコア(独自算出の注目度): 20.458428841832742
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) enables collaborative model training without sharing raw data in edge environments, but is constrained by limited communication bandwidth and heterogeneous client data distributions. Prototype-based FL mitigates this issue by exchanging class-wise feature prototypes instead of full model parameters; however, existing methods still suffer from suboptimal generalization under severe communication constraints. In this paper, we propose RefProtoFL, a communication-efficient FL framework that integrates External-Referenced Prototype Alignment (ERPA) for representation consistency with Adaptive Probabilistic Update Dropping (APUD) for communication efficiency. Specifically, we decompose the model into a private backbone and a lightweight shared adapter, and restrict federated communication to the adapter parameters only. To further reduce uplink cost, APUD performs magnitude-aware Top-K sparsification, transmitting only the most significant adapter updates for server-side aggregation. To address representation inconsistency across heterogeneous clients, ERPA leverages a small server-held public dataset to construct external reference prototypes that serve as shared semantic anchors. For classes covered by public data, clients directly align local representations to public-induced prototypes, whereas for uncovered classes, alignment relies on server-aggregated global reference prototypes via weighted averaging. Extensive experiments on standard benchmarks demonstrate that RefProtoFL attains higher classification accuracy than state-of-the-art prototype-based FL baselines.
- Abstract(参考訳): フェデレートラーニング(FL)は、エッジ環境で生データを共有せずに協調的なモデルトレーニングを可能にするが、限られた通信帯域幅と不均一なクライアントデータ分散によって制約される。
プロトタイプベースのFLは、完全なモデルパラメータの代わりにクラスワイドな特徴的プロトタイプを交換することでこの問題を緩和するが、既存の手法は厳しい通信制約下での最適部分の一般化に悩まされている。
本稿では,適応確率更新ドロップ(APUD)と表現整合性を実現するために,ERPA(External-Referenced Prototype Alignment)を統合した通信効率の高いFLフレームワークであるRefProtoFLを提案する。
具体的には、モデルをプライベートなバックボーンと軽量な共有アダプタに分解し、アダプタパラメータのみにフェデレートされた通信を制限する。
アップリンクコストをさらに削減するため、APUDはTop-Kスペーシフィケーションを実行し、サーバ側アグリゲーションのための最も重要なアダプタ更新だけを送信する。
異種クライアント間の表現の不整合に対処するために、ERPAは、サーバが所有する小さなパブリックデータセットを活用して、共有セマンティックアンカーとして機能する外部参照プロトタイプを構築する。
パブリックデータでカバーされたクラスでは、クライアントはローカル表現をパブリックに誘導されたプロトタイプに直接アライメントするが、未発見のクラスでは、アライメントは重み付き平均化によるサーバ集約グローバル参照プロトタイプに依存している。
標準ベンチマークでの大規模な実験により、RefProtoFLは最先端のプロトタイプベースのFLベースラインよりも高い分類精度が得られることが示された。
関連論文リスト
- FedAPT: Federated Adversarial Prompt Tuning for Vision-Language Models [97.35577473867296]
Federated Adversarial Prompt Tuning (textbfFedAPT)は、FPTの対向性を高めるために設計された新しい手法である。
この問題に対処するために,テキストプロンプトから視覚的なプロンプトを生成するtextbfclass-awareプロンプトジェネレータを提案する。
複数の画像分類データセットの実験は、対向ロバスト性を改善する上でFedAPTの優位性を示している。
論文 参考訳(メタデータ) (2025-09-03T03:46:35Z) - Prototype-Guided and Lightweight Adapters for Inherent Interpretation and Generalisation in Federated Learning [5.904095466127043]
フェデレートラーニング(FL)は、分散データソース間で機械学習モデルを協調的にトレーニングするための、有望なパラダイムを提供する。
本稿では,プロトタイプと軽量アダプタモジュールを用いた固有解釈を提供するFLフレームワークを提案する。
そこで,本研究では,ベースラインアルゴリズムよりも精度が向上した分類タスクを,本質的に解釈可能な機能として示す。
論文 参考訳(メタデータ) (2025-07-08T10:30:08Z) - Enhancing Visual Representation with Textual Semantics: Textual Semantics-Powered Prototypes for Heterogeneous Federated Learning [12.941603966989366]
フェデレート・プロトタイプ・ラーニング(FedPL)は、フェデレート・ラーニング(FL)におけるデータ不均一性を扱う効果的な戦略として登場した。
テキストのモダリティから意味に富んだプロトタイプを構築するために,PLMを利用する新しい手法であるFedTSPを提案する。
クライアントイメージモデルとPLM間のモダリティギャップに対処するため、トレーニング可能なプロンプトを導入し、プロトタイプがクライアントタスクに適応できるようにする。
論文 参考訳(メタデータ) (2025-03-16T04:35:06Z) - Modality Alignment Meets Federated Broadcasting [9.752555511824593]
フェデレートラーニング(FL)は、ローカルデータを集中化せずに、分散エッジデバイス間でモデルをトレーニングすることで、データのプライバシを保護する強力なアプローチとして登場した。
本稿では,テキストエンコーダをサーバ上に配置し,画像エンコーダをローカルデバイス上で動作させる,モダリティアライメントを利用した新しいFLフレームワークを提案する。
論文 参考訳(メタデータ) (2024-11-24T13:30:03Z) - SpaFL: Communication-Efficient Federated Learning with Sparse Models and Low computational Overhead [75.87007729801304]
SpaFL: 計算オーバーヘッドの少ないスパースモデル構造を最適化する通信効率のよいFLフレームワークを提案する。
プルーニングプロセス自体を最適化するためには、パラメータの代わりにサーバとクライアントの間でしきい値だけが通信される。
グローバルしきい値は、集約されたパラメータの重要度を抽出することで、モデルパラメータの更新に使用される。
論文 参考訳(メタデータ) (2024-06-01T13:10:35Z) - FedTGP: Trainable Global Prototypes with Adaptive-Margin-Enhanced
Contrastive Learning for Data and Model Heterogeneity in Federated Learning [18.916282151435727]
不均一フェデレートラーニング(HtFL)は異種モデルやデータをサポートする能力から注目されている。
我々は,ACL(Adaptive-margin-enhanced Contrastive Learning)を活用して,サーバ上でトレーニング可能なグローバルプロトタイプ(TGP)を学習する,FedTGPという新しいHtFLアプローチを導入する。
論文 参考訳(メタデータ) (2024-01-06T14:43:47Z) - Tunable Soft Prompts are Messengers in Federated Learning [55.924749085481544]
フェデレートラーニング(FL)は、複数の参加者が分散データソースを使用して機械学習モデルを協調的にトレーニングすることを可能にする。
FLにおけるモデルプライバシ保護の欠如は無視できない課題となっている。
そこで本研究では,ソフトプロンプトによって参加者間の情報交換を実現する新しいFLトレーニング手法を提案する。
論文 参考訳(メタデータ) (2023-11-12T11:01:10Z) - Towards Instance-adaptive Inference for Federated Learning [80.38701896056828]
Federated Learning(FL)は、複数のクライアントがローカルトレーニングを集約することで、強力なグローバルモデルを学ぶことができる分散学習パラダイムである。
本稿では,FedInsという新しいFLアルゴリズムを提案する。
我々のFedInsは、Tiny-ImageNet上での通信コストが15%未満で、トップパフォーマンスの手法に対して6.64%の改善など、最先端のFLアルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-08-11T09:58:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。