論文の概要: GFPL: Generative Federated Prototype Learning for Resource-Constrained and Data-Imbalanced Vision Task
- arxiv url: http://arxiv.org/abs/2602.21873v1
- Date: Wed, 25 Feb 2026 12:57:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-26 18:19:16.837267
- Title: GFPL: Generative Federated Prototype Learning for Resource-Constrained and Data-Imbalanced Vision Task
- Title(参考訳): GFPL:資源制約およびデータ不均衡ビジョンタスクのための生成的フェデレーションプロトタイプ学習
- Authors: Shiwei Lu, Yuhang He, Jiashuo Li, Qiang Wang, Yihong Gong,
- Abstract要約: フェデレートラーニング(FL)は、分散イメージのセキュアな活用を容易にする。
FLは、非効率的な知識融合と禁止的な通信オーバーヘッドという、現実世界の展開において2つの重要な課題に直面している。
本稿では,これらの問題に対処する新しいジェネレーティブ・フェデレーション・プロトタイプ学習フレームワークを提案する。
- 参考スコア(独自算出の注目度): 43.723840781330914
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Federated learning (FL) facilitates the secure utilization of decentralized images, advancing applications in medical image recognition and autonomous driving. However, conventional FL faces two critical challenges in real-world deployment: ineffective knowledge fusion caused by model updates biased toward majority-class features, and prohibitive communication overhead due to frequent transmissions of high-dimensional model parameters. Inspired by the human brain's efficiency in knowledge integration, we propose a novel Generative Federated Prototype Learning (GFPL) framework to address these issues. Within this framework, a prototype generation method based on Gaussian Mixture Model (GMM) captures the statistical information of class-wise features, while a prototype aggregation strategy using Bhattacharyya distance effectively fuses semantically similar knowledge across clients. In addition, these fused prototypes are leveraged to generate pseudo-features, thereby mitigating feature distribution imbalance across clients. To further enhance feature alignment during local training, we devise a dual-classifier architecture, optimized via a hybrid loss combining Dot Regression and Cross-Entropy. Extensive experiments on benchmarks show that GFPL improves model accuracy by 3.6% under imbalanced data settings while maintaining low communication cost.
- Abstract(参考訳): フェデレートラーニング(FL)は、分散イメージの安全な利用を促進し、医用画像認識や自律運転への応用を推進している。
しかし、従来のFLは、多数派の特徴に偏ったモデル更新による非効率な知識融合と、高次元モデルパラメータの頻繁な伝達による通信オーバーヘッドという2つの重要な課題に直面している。
知識統合における人間の脳の効率性に着想を得て,これらの問題に対処する新しいGFPLフレームワークを提案する。
このフレームワーク内では,ガウス混合モデル(GMM)に基づくプロトタイプ生成手法がクラスワイド特徴の統計情報をキャプチャする一方,Bhattacharyya 距離を用いたプロトタイプ集約戦略は,クライアント間で意味論的に類似した知識を効果的に融合させる。
さらに、これらの融合プロトタイプを利用して擬似特徴を生成することにより、クライアント間の特徴分布の不均衡を緩和する。
局所学習における特徴アライメントをさらに強化するため,Dot回帰とクロスエントロピーを組み合わせたハイブリッド損失により最適化されたデュアルクラス化アーキテクチャを考案した。
ベンチマークの大規模な実験により、GFPLは低通信コストを維持しながら不均衡なデータ設定下でモデルの精度を3.6%向上することが示された。
関連論文リスト
- Deep Leakage with Generative Flow Matching Denoiser [54.05993847488204]
再建プロセスに先立って生成フローマッチング(FM)を組み込んだ新しい深部リーク攻撃(DL)を導入する。
当社のアプローチは、ピクセルレベル、知覚的、特徴に基づく類似度測定において、最先端の攻撃よりも一貫して優れています。
論文 参考訳(メタデータ) (2026-01-21T14:51:01Z) - FedProtoKD: Dual Knowledge Distillation with Adaptive Class-wise Prototype Margin for Heterogeneous Federated Learning [18.44030373279699]
統計的不均一性とプライバシー問題に対処するための有望なソリューションとして,プロトタイプベースの不均一フェデレートラーニング(HFL)手法が出現する。
我々は、クライアントのロジットとプロトタイプ表現によるシステム性能向上のために、拡張された二重知識蒸留機構を用いて、異種フェデレート学習環境におけるFedProtoKDを提案する。
FedProtoKDは様々な設定で1.13%から34.13%の精度で平均的な改善を達成し、既存の最先端のHFL法よりも大幅に向上した。
論文 参考訳(メタデータ) (2025-08-26T13:14:29Z) - Robust Federated Learning on Edge Devices with Domain Heterogeneity [13.362209980631876]
Federated Learning (FL)は、分散エッジデバイス間のデータプライバシを確保しながら、協調的なトレーニングを可能にする。
本稿では,FLグローバルモデルの一般化能力を向上させることにより,この問題に対処する新しいフレームワークを提案する。
特徴の多様性とモデルロバスト性を高めるために,プロトタイプベースのFLフレームワークであるFedAPCを紹介する。
論文 参考訳(メタデータ) (2025-05-15T09:53:14Z) - Client Contribution Normalization for Enhanced Federated Learning [4.726250115737579]
スマートフォンやラップトップを含むモバイルデバイスは、分散化された異種データを生成する。
フェデレートラーニング(FL)は、データ共有のない分散デバイス間でグローバルモデルの協調トレーニングを可能にすることで、有望な代替手段を提供する。
本稿では、FLにおけるデータ依存的不均一性に着目し、局所的に訓練されたモデルから抽出された平均潜在表現を活用する新しいアプローチを提案する。
論文 参考訳(メタデータ) (2024-11-10T04:03:09Z) - Model Inversion Attacks Through Target-Specific Conditional Diffusion Models [54.69008212790426]
モデル反転攻撃(MIA)は、ターゲット分類器のトレーニングセットからプライベートイメージを再構築することを目的としており、それによってAIアプリケーションにおけるプライバシー上の懸念が高まる。
従来のGANベースのMIAは、GANの固有の欠陥と潜伏空間における最適化の偏りにより、劣った遺伝子的忠実度に悩まされる傾向にある。
これらの問題を緩和するために拡散モデル反転(Diff-MI)攻撃を提案する。
論文 参考訳(メタデータ) (2024-07-16T06:38:49Z) - pFedAFM: Adaptive Feature Mixture for Batch-Level Personalization in Heterogeneous Federated Learning [34.01721941230425]
教師付き学習タスクのための適応的特徴混合(pFedAFM)を用いたモデルヘテロジニアスなフェデレート学習手法を提案する。
7つの最先端のMHPFL法を著しく上回り、精度は7.93%まで向上した。
論文 参考訳(メタデータ) (2024-04-27T09:52:59Z) - Fake It Till Make It: Federated Learning with Consensus-Oriented
Generation [52.82176415223988]
コンセンサス指向生成による連合学習(FedCOG)を提案する。
FedCOGは、補完的なデータ生成と知識蒸留に基づくモデルトレーニングという、クライアント側の2つの重要なコンポーネントで構成されています。
古典的および実世界のFLデータセットの実験は、FedCOGが一貫して最先端の手法より優れていることを示している。
論文 参考訳(メタデータ) (2023-12-10T18:49:59Z) - Over-the-Air Federated Learning and Optimization [52.5188988624998]
エッジ・ザ・エア計算(AirComp)によるフェデレーション学習(FL)に焦点を当てる。
本稿では,AirComp ベースの FedAvg (AirFedAvg) アルゴリズムの凸および非凸条件下での収束について述べる。
エッジデバイス(モデル、勾配、モデル差など)で送信できるローカルアップデートの種類によって、AirFedAvgで送信するとアグリゲーションエラーが発生する可能性がある。
さらに、より実用的な信号処理方式を検討し、通信効率を改善し、これらの信号処理方式によって引き起こされるモデル集約誤差の異なる形式に収束解析を拡張する。
論文 参考訳(メタデータ) (2023-10-16T05:49:28Z) - Vertical Federated Learning over Cloud-RAN: Convergence Analysis and
System Optimization [82.12796238714589]
高速かつ正確なモデルアグリゲーションを実現するために,クラウド無線アクセスネットワーク(Cloud-RAN)ベースの垂直FLシステムを提案する。
アップリンクとダウンリンクの両方の伝送を考慮した垂直FLアルゴリズムの収束挙動を特徴付ける。
我々は,連続凸近似と代替凸探索に基づくシステム最適化アルゴリズムを開発した,連系トランシーバとフロントホール量子化設計によるシステム最適化フレームワークを構築した。
論文 参考訳(メタデータ) (2023-05-04T09:26:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。