論文の概要: Mitigating Group-Level Fairness Disparities in Federated Visual Language Models
- arxiv url: http://arxiv.org/abs/2505.01851v1
- Date: Sat, 03 May 2025 16:09:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-06 18:49:35.295735
- Title: Mitigating Group-Level Fairness Disparities in Federated Visual Language Models
- Title(参考訳): フェデレーション型視覚言語モデルにおけるグループレベルフェアネスの相違
- Authors: Chaomeng Chen, Zitong Yu, Junhao Dong, Sen Su, Linlin Shen, Shutao Xia, Xiaochun Cao,
- Abstract要約: 本稿では、FLと公正なプロンプトチューニング技術を組み合わせた新しいフレームワークであるFVL-FPを紹介する。
モデル性能を維持しながら、人口統計バイアスを軽減することに注力する。
本手法は,標準FL法に比べて平均45%の人口格差を減少させる。
- 参考スコア(独自算出の注目度): 115.16940773660104
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Visual language models (VLMs) have shown remarkable capabilities in multimodal tasks but face challenges in maintaining fairness across demographic groups, particularly when deployed in federated learning (FL) environments. This paper addresses the critical issue of group fairness in federated VLMs by introducing FVL-FP, a novel framework that combines FL with fair prompt tuning techniques. We focus on mitigating demographic biases while preserving model performance through three innovative components: (1) Cross-Layer Demographic Fair Prompting (CDFP), which adjusts potentially biased embeddings through counterfactual regularization; (2) Demographic Subspace Orthogonal Projection (DSOP), which removes demographic bias in image representations by mapping fair prompt text to group subspaces; and (3) Fair-aware Prompt Fusion (FPF), which dynamically balances client contributions based on both performance and fairness metrics. Extensive evaluations across four benchmark datasets demonstrate that our approach reduces demographic disparity by an average of 45\% compared to standard FL approaches, while maintaining task performance within 6\% of state-of-the-art results. FVL-FP effectively addresses the challenges of non-IID data distributions in federated settings and introduces minimal computational overhead while providing significant fairness benefits. Our work presents a parameter-efficient solution to the critical challenge of ensuring equitable performance across demographic groups in privacy-preserving multimodal systems.
- Abstract(参考訳): 視覚言語モデル(VLM)はマルチモーダルタスクにおいて顕著な能力を示してきたが、特に連邦学習(FL)環境において、人口集団間の公平性を維持する上での課題に直面している。
本稿では、FLとフェアプロンプトチューニング技術を組み合わせた新しいフレームワークであるFVL-FPを導入することにより、連合VLMにおけるグループフェアネスの重大な問題に対処する。
本研究では,(1)非現実的正規化による潜在的なバイアスのある埋め込みを調整したCDFP(Cross-Layer Demographic Fair Prompting),(2)非現実的正規化による画像表現の階層的バイアスを取り除くDSOP(Demographic Subspace Orthogonal Projection),(3)不公平なテキストをグループサブスペースにマッピングするFair-aware Prompt Fusion(FPF),の3つの革新的コンポーネントによるモデルパフォーマンスの緩和に着目する。
4つのベンチマークデータセットを総合的に比較した結果,従来のFL手法に比べて平均45倍の差がみられ,タスク性能は6倍に抑えられた。
FVL-FPは、フェデレートされた設定における非IIDデータ分散の課題に効果的に対処し、計算オーバーヘッドを最小限に抑えつつ、かなりの公正性をもたらす。
本研究は,プライバシ保護型マルチモーダルシステムにおいて,人口集団間での公平なパフォーマンス確保という重要な課題に対して,パラメータ効率のよい解決法を提案する。
関連論文リスト
- pFedFair: Towards Optimal Group Fairness-Accuracy Trade-off in Heterogeneous Federated Learning [17.879602968559198]
フェデレートされた学習アルゴリズムは、クライアントの集合データに基づいてモデルをトレーニングすることで、クライアントの精度を最大化することを目的としている。
群フェアネス制約は、FL最適化問題の目的関数に組み込むことができる。
このような手法により、不均一なクライアント分布を持つFL設定において、最適な分類精度が得られることを示す。
論文 参考訳(メタデータ) (2025-03-19T06:15:31Z) - A Post-Processing-Based Fair Federated Learning Framework [8.978878439498365]
Federated Learning(FL)は、中央サーバでローカルデータセットをプールすることなく、分散パーティ間で協調的なモデルトレーニングを可能にする。
FLシステムにおけるグループフェアネスを改善するために、単純で直感的な後処理ベースのフレームワークを定義し、実証的に分析する。
我々の研究は、このフレームワークがFLにおける公正性の実装を単純化するだけでなく、精度の低下や精度の向上を最小限に抑えながら、大幅な公正性の向上をもたらすことを示している。
論文 参考訳(メタデータ) (2025-01-25T20:05:27Z) - Over-the-Air Fair Federated Learning via Multi-Objective Optimization [52.295563400314094]
本稿では,公平なFLモデルを訓練するためのOTA-FFL(Over-the-air Fair Federated Learning Algorithm)を提案する。
OTA-FFLの公正性とロバストな性能に対する優位性を示す実験を行った。
論文 参考訳(メタデータ) (2025-01-06T21:16:51Z) - Client Contribution Normalization for Enhanced Federated Learning [4.726250115737579]
スマートフォンやラップトップを含むモバイルデバイスは、分散化された異種データを生成する。
フェデレートラーニング(FL)は、データ共有のない分散デバイス間でグローバルモデルの協調トレーニングを可能にすることで、有望な代替手段を提供する。
本稿では、FLにおけるデータ依存的不均一性に着目し、局所的に訓練されたモデルから抽出された平均潜在表現を活用する新しいアプローチを提案する。
論文 参考訳(メタデータ) (2024-11-10T04:03:09Z) - Multi-dimensional Fair Federated Learning [25.07463977553212]
フェデレートラーニング(FL)は、分散データからモデルをトレーニングするための、有望な協調的でセキュアなパラダイムとして登場した。
群フェアネスとクライアントフェアネスは、FLにとって重要である2次元のフェアネスである。
グループフェアネスとクライアントフェアネスを同時に達成するために,mFairFLと呼ばれる手法を提案する。
論文 参考訳(メタデータ) (2023-12-09T11:37:30Z) - EASTER: Embedding Aggregation-based Heterogeneous Models Training in Vertical Federated Learning [50.30581967024277]
本稿では,複数の異種モデル(VFedMH)を学習するための垂直フェデレーション学習という新しい手法を提案する。
被験者の局所的な埋め込み値を保護するために,軽量なブラインド・ファクターに基づく埋め込み保護手法を提案する。
実験により、VFedMHは、不均一な最適化で複数の異種モデルを同時に訓練し、モデル性能の最近の手法より優れていることを示す。
論文 参考訳(メタデータ) (2023-10-20T09:22:51Z) - Fairness-aware Federated Minimax Optimization with Convergence Guarantee [10.727328530242461]
フェデレートラーニング(FL)はそのプライバシー保護機能のためにかなりの注目を集めている。
ユーザデータ管理の自由の欠如は、モデルが人種や性別などのセンシティブな要因に偏っている、グループフェアネスの問題につながる可能性がある。
本稿では,FLにおけるグループフェアネス問題に明示的に対処するために,拡張ラグランジアン法(FFALM)を用いたフェアフェデレーション平均化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-07-10T08:45:58Z) - Learning Informative Representation for Fairness-aware Multivariate
Time-series Forecasting: A Group-based Perspective [50.093280002375984]
多変量時系列予測モデル(MTS)では変数間の性能不公平性が広く存在する。
フェアネスを意識したMTS予測のための新しいフレームワークであるFairForを提案する。
論文 参考訳(メタデータ) (2023-01-27T04:54:12Z) - Heterogeneous Federated Learning via Grouped Sequential-to-Parallel
Training [60.892342868936865]
フェデレートラーニング(Federated Learning, FL)は、プライバシ保護のためのコラボレーション機械学習パラダイムである。
本稿では,この課題に対処するため,データヘテロジニアス・ロバストFLアプローチであるFedGSPを提案する。
その結果,FedGSPは7つの最先端アプローチと比較して平均3.7%の精度向上を実現していることがわかった。
論文 参考訳(メタデータ) (2022-01-31T03:15:28Z) - Feature Quantization Improves GAN Training [126.02828112121874]
識別器の特徴量子化(FQ)は、真と偽のデータの両方を共有離散空間に埋め込む。
本手法は,既存のGANモデルに容易に接続でき,訓練における計算オーバーヘッドがほとんどない。
論文 参考訳(メタデータ) (2020-04-05T04:06:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。