論文の概要: CoRe-Fed: Bridging Collaborative and Representation Fairness via Federated Embedding Distillation
- arxiv url: http://arxiv.org/abs/2602.00647v1
- Date: Sat, 31 Jan 2026 10:41:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:33.315146
- Title: CoRe-Fed: Bridging Collaborative and Representation Fairness via Federated Embedding Distillation
- Title(参考訳): CoRe-Fed:Federated Embedding Distillationによるブレンディングコラボレーションと表現フェアネス
- Authors: Noorain Mukhtiar, Adnan Mahmood, Quan Z. Sheng,
- Abstract要約: フェデレーテッド・ラーニング(FL)は、分散モデルトレーニングを通じて協調的なインテリジェンスを実現するための重要なアプローチとして登場した。
協調性と表現の公平性を橋渡しする統一最適化フレームワークであるCoRe-Fedを提案する。
我々はCoRe-Fedが最先端のベースラインアルゴリズムよりも公平性とモデル性能を向上させることを示す。
- 参考スコア(独自算出の注目度): 12.707158627881968
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the proliferation of distributed data sources, Federated Learning (FL) has emerged as a key approach to enable collaborative intelligence through decentralized model training while preserving data privacy. However, conventional FL algorithms often suffer from performance disparities across clients caused by heterogeneous data distributions and unequal participation, which leads to unfair outcomes. Specifically, we focus on two core fairness challenges, i.e., representation bias, arising from misaligned client representations, and collaborative bias, stemming from inequitable contribution during aggregation, both of which degrade model performance and generalizability. To mitigate these disparities, we propose CoRe-Fed, a unified optimization framework that bridges collaborative and representation fairness via embedding-level regularization and fairness-aware aggregation. Initially, an alignment-driven mechanism promotes semantic consistency between local and global embeddings to reduce representational divergence. Subsequently, a dynamic reward-penalty-based aggregation strategy adjusts each client's weight based on participation history and embedding alignment to ensure contribution-aware aggregation. Extensive experiments across diverse models and datasets demonstrate that CoRe-Fed improves both fairness and model performance over the state-of-the-art baseline algorithms.
- Abstract(参考訳): 分散データソースの普及に伴い、フェデレートラーニング(FL)は、データプライバシを保護しながら、分散モデルトレーニングを通じてコラボレーションインテリジェンスを実現するための重要なアプローチとして登場した。
しかし、従来のFLアルゴリズムは、不均一なデータ分散と不平等な参加に起因するクライアント間の性能格差に悩まされることが多く、不公平な結果をもたらす。
具体的には,モデル性能の低下と一般化可能性の低下に起因した,不整合クライアント表現から生じる表現バイアスと協調バイアスという,2つの中心的公平性の課題に焦点をあてる。
このような格差を緩和するため,我々は,組込みレベル正規化とフェアネス対応アグリゲーションを通じて協調性と表現の公平性を橋渡しする統一最適化フレームワークであるCoRe-Fedを提案する。
当初、アライメント駆動のメカニズムは、局所的な埋め込みとグローバルな埋め込みのセマンティックな一貫性を促進し、表現の発散を減らす。
その後、動的報酬金に基づくアグリゲーション戦略は、参加履歴と埋め込みアライメントに基づいて各クライアントの重みを調整し、コントリビューション対応のアグリゲーションを確保する。
多様なモデルとデータセットにわたる大規模な実験は、CoRe-Fedが最先端のベースラインアルゴリズムよりも公正性とモデルパフォーマンスの両方を改善することを示した。
関連論文リスト
- Resource-Aware Aggregation and Sparsification in Heterogeneous Ensemble Federated Learning [0.9176056742068811]
フェデレートラーニング(FL)は、プライベートクライアントデータによる分散トレーニングを可能にする。
現在のアンサンブルに基づくFL法はモデル予測の多様性を捉えるには不十分である。
多様な計算能力を持つクライアントに適したグローバルアンサンブルベースのFLフレームワークである textbfSHEFL を提案する。
論文 参考訳(メタデータ) (2025-08-12T01:40:46Z) - Mitigating Group-Level Fairness Disparities in Federated Visual Language Models [115.16940773660104]
本稿では、FLと公正なプロンプトチューニング技術を組み合わせた新しいフレームワークであるFVL-FPを紹介する。
モデル性能を維持しながら、人口統計バイアスを軽減することに注力する。
本手法は,標準FL法に比べて平均45%の人口格差を減少させる。
論文 参考訳(メタデータ) (2025-05-03T16:09:52Z) - Interaction-Aware Gaussian Weighting for Clustered Federated Learning [58.92159838586751]
フェデレートラーニング(FL)は、プライバシを維持しながらモデルをトレーニングするための分散パラダイムとして登場した。
本稿では,新たなクラスタリングFL法であるFedGWC(Federated Gaussian Weighting Clustering)を提案する。
ベンチマークデータセットを用いた実験により,FedGWCはクラスタの品質と分類精度において,既存のFLアルゴリズムよりも優れていることがわかった。
論文 参考訳(メタデータ) (2025-02-05T16:33:36Z) - FedDUAL: A Dual-Strategy with Adaptive Loss and Dynamic Aggregation for Mitigating Data Heterogeneity in Federated Learning [12.307490659840845]
フェデレートラーニング(FL)は、様々なクライアントからローカルに最適化されたモデルと、統一されたグローバルモデルを組み合わせる。
FLは、性能劣化、収束の遅さ、グローバルモデルの堅牢性低下など、重大な課題に直面している。
これらの問題を効果的に解決するために、革新的なデュアルストラテジーアプローチを導入する。
論文 参考訳(メタデータ) (2024-12-05T18:42:29Z) - Client Contribution Normalization for Enhanced Federated Learning [4.726250115737579]
スマートフォンやラップトップを含むモバイルデバイスは、分散化された異種データを生成する。
フェデレートラーニング(FL)は、データ共有のない分散デバイス間でグローバルモデルの協調トレーニングを可能にすることで、有望な代替手段を提供する。
本稿では、FLにおけるデータ依存的不均一性に着目し、局所的に訓練されたモデルから抽出された平均潜在表現を活用する新しいアプローチを提案する。
論文 参考訳(メタデータ) (2024-11-10T04:03:09Z) - An Aggregation-Free Federated Learning for Tackling Data Heterogeneity [50.44021981013037]
フェデレートラーニング(FL)は、分散データセットからの知識を活用する効果に頼っている。
従来のFLメソッドでは、クライアントが前回のトレーニングラウンドからサーバが集約したグローバルモデルに基づいてローカルモデルを更新するアグリゲート-then-adaptフレームワークを採用している。
我々は,新しいアグリゲーションフリーFLアルゴリズムであるFedAFを紹介する。
論文 参考訳(メタデータ) (2024-04-29T05:55:23Z) - Aggregation Weighting of Federated Learning via Generalization Bound
Estimation [65.8630966842025]
フェデレートラーニング(FL)は通常、サンプル比率によって決定される重み付けアプローチを使用して、クライアントモデルパラメータを集約する。
上記の重み付け法を,各局所モデルの一般化境界を考慮した新しい戦略に置き換える。
論文 参考訳(メタデータ) (2023-11-10T08:50:28Z) - Generalizable Heterogeneous Federated Cross-Correlation and Instance
Similarity Learning [60.058083574671834]
本稿では,新しいFCCL+,フェデレーション相関と非ターゲット蒸留との類似性学習を提案する。
不均一な問題に対しては、無関係な公開データを通信に活用する。
局所的な更新段階における破滅的な忘れ物として、FCCL+はFederated Non Target Distillationを導入している。
論文 参考訳(メタデータ) (2023-09-28T09:32:27Z) - Entropy-driven Fair and Effective Federated Learning [26.22014904183881]
フェデレートラーニング(FL)は、データプライバシを保持しながら、分散デバイス間で協調的なモデルトレーニングを可能にする。
本稿では,理論に基づくアグリゲーションとモデルと勾配アライメントを組み合わせることで,モデル性能と大域的モデル性能を同時に最適化する手法を提案する。
論文 参考訳(メタデータ) (2023-01-29T10:02:42Z) - Collaborative Fairness in Federated Learning [24.7378023761443]
深層学習のための新しい協調フェアフェデレーションラーニング(CFFL)フレームワークを提案する。
CFFLは参加者に異なるモデルに収束させ、予測性能を損なうことなく公正を達成する。
ベンチマークデータセットの実験では、CFFLは高い公正性を達成し、分散フレームワークに匹敵する精度を提供する。
論文 参考訳(メタデータ) (2020-08-27T14:39:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。