論文の概要: Unveiling Group-Specific Distributed Concept Drift: A Fairness
Imperative in Federated Learning
- arxiv url: http://arxiv.org/abs/2402.07586v1
- Date: Mon, 12 Feb 2024 11:35:25 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-13 14:29:38.437298
- Title: Unveiling Group-Specific Distributed Concept Drift: A Fairness
Imperative in Federated Learning
- Title(参考訳): グループ固有の分散概念ドリフトの展開:フェデレーション学習におけるフェアネス・インペラティブ
- Authors: Teresa Salazar and Jo\~ao Gama and Helder Ara\'ujo and Pedro Henriques
Abreu
- Abstract要約: グループ固有の概念ドリフト(グループ特化概念ドリフト)とは、あるグループが時間とともに概念をドリフトし、別のグループがそうでない状況を指す。
連合学習のフレームワークでは、各クライアントは、同じ概念を共有しながら、独立してグループ固有の概念ドリフトを経験できる。
我々は、グループ固有の分散コンセプトドリフトに取り組むために、既存の分散コンセプトドリフト適応アルゴリズムを適用した。
- 参考スコア(独自算出の注目度): 2.036522797346905
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the evolving field of machine learning, ensuring fairness has become a
critical concern, prompting the development of algorithms designed to mitigate
discriminatory outcomes in decision-making processes. However, achieving
fairness in the presence of group-specific concept drift remains an unexplored
frontier, and our research represents pioneering efforts in this regard.
Group-specific concept drift refers to situations where one group experiences
concept drift over time while another does not, leading to a decrease in
fairness even if accuracy remains fairly stable. Within the framework of
federated learning, where clients collaboratively train models, its distributed
nature further amplifies these challenges since each client can experience
group-specific concept drift independently while still sharing the same
underlying concept, creating a complex and dynamic environment for maintaining
fairness. One of the significant contributions of our research is the
formalization and introduction of the problem of group-specific concept drift
and its distributed counterpart, shedding light on its critical importance in
the realm of fairness. In addition, leveraging insights from prior research, we
adapt an existing distributed concept drift adaptation algorithm to tackle
group-specific distributed concept drift which utilizes a multi-model approach,
a local group-specific drift detection mechanism, and continuous clustering of
models over time. The findings from our experiments highlight the importance of
addressing group-specific concept drift and its distributed counterpart to
advance fairness in machine learning.
- Abstract(参考訳): 機械学習の発展分野では、公平性を保証することが重要な関心事となり、意思決定プロセスにおける差別的結果を軽減するアルゴリズムの開発が進められている。
しかし,グループ固有の概念ドリフトの存在下での公正性の実現は未発見のフロンティアであり,本研究は先駆的な試みである。
グループ固有の概念ドリフト(グループ固有の概念ドリフト)とは、あるグループが時間とともにコンセプトを経験し、別のグループがそうでない状況を指す。
クライアントが協力的にモデルをトレーニングするフェデレートラーニングのフレームワークの中で、その分散特性は、各クライアントが同じ概念を共有しながらグループ固有のコンセプトドリフトを独立して経験し、公正性を維持するための複雑でダイナミックな環境を作ることができるため、これらの課題をさらに増幅します。
我々の研究の重要な貢献の1つは、集団固有の概念ドリフトとその分散した概念ドリフトの問題の形式化と導入であり、公平の領域におけるその重要な重要性に光を当てている。
さらに,先行研究の知見を活かし,複数モデルアプローチ,局所群別ドリフト検出機構,時間経過に伴うモデルの連続クラスタリングを用いた,既存の分散概念ドリフト適応アルゴリズムをグループ固有の分散概念ドリフトに適用する。
本実験から得られた知見は,グループ固有のコンセプトドリフトと,機械学習における公平性向上のための分散処理の重要性を強調した。
関連論文リスト
- Classifier Clustering and Feature Alignment for Federated Learning under Distributed Concept Drift [5.566951183982973]
本研究では、条件分布が$P(Y|X)$変化する実ドリフトに焦点を当てる。
分類器クラスタリングと機能アライメントを備えたフェデレート学習フレームワークであるFedCCFAを提案する。
以上の結果から,FedCCFAは様々なコンセプトドリフト環境下での既存手法よりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2024-10-24T07:04:52Z) - Distribution-Free Fair Federated Learning with Small Samples [54.63321245634712]
FedFaiREEは、分散化された環境で分散のないフェアラーニングのために小さなサンプルで開発された後処理アルゴリズムである。
公正性と精度の両面において厳密な理論的保証を提供し,実験結果により,提案手法の堅牢な実証検証を行う。
論文 参考訳(メタデータ) (2024-02-25T17:37:53Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Learning Informative Representation for Fairness-aware Multivariate
Time-series Forecasting: A Group-based Perspective [50.093280002375984]
多変量時系列予測モデル(MTS)では変数間の性能不公平性が広く存在する。
フェアネスを意識したMTS予測のための新しいフレームワークであるFairForを提案する。
論文 参考訳(メタデータ) (2023-01-27T04:54:12Z) - Federated Learning under Distributed Concept Drift [30.069809537266575]
分散コンセプトドリフト下でのフェデレートラーニング(FL)は、ほとんど探索されていない分野である。
まず, ドリフト適応に対する先行解が, 単一のグローバルモデルで, 停滞するドリフトに不適であることを実証した。
局所的ドリフト検出と階層的クラスタリングに基づくドリフトに反応する2つの新しいクラスタリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-06-01T23:55:21Z) - Heterogeneous Target Speech Separation [52.05046029743995]
我々は,非相互排他的概念を用いて興味のあるソースを区別できる単一チャネルターゲットソース分離のための新しいパラダイムを提案する。
提案する異種分離フレームワークは,分散シフトが大きいデータセットをシームレスに利用することができる。
論文 参考訳(メタデータ) (2022-04-07T17:14:20Z) - Unified Group Fairness on Federated Learning [22.143427873780404]
フェデレートラーニング(FL)は、グローバルモデルが分散クライアントのプライベートデータに基づいてトレーニングされる、重要な機械学習パラダイムとして登場した。
近年の研究では、顧客間の公平性に焦点が当てられているが、センシティブな属性(例えば、性別や人種)によって形成される異なるグループに対する公正性は無視されている。
本稿では,G-DRFA (Group Distributionally Robust Federated Averaging) と呼ばれる新しいFLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-11-09T08:21:38Z) - Group-disentangled Representation Learning with Weakly-Supervised
Regularization [13.311886256230814]
GroupVAEは、一貫性と非絡み合いの表現を強制するために、単純だが効果的なクルバック・リーバーの発散に基づく正規化である。
本研究では, グループ差分表現が, 公平な分類や, 再構築, 分類, 転帰学習といった3次元形状関連タスクなど, 下流タスクにおいて改善されることを実証する。
論文 参考訳(メタデータ) (2021-10-23T10:01:05Z) - FairFed: Enabling Group Fairness in Federated Learning [22.913999279079878]
フェデレーテッド・ラーニングは、複数のパーティで機械学習モデルを学習するための有望なソリューションと見なされている。
フェアネスを意識したアグリゲーション手法によりグループフェアネスを高める新しいアルゴリズムであるFairFedを提案する。
提案手法は,高度の不均一な属性分布の下で,最先端の公正な学習フレームワークよりも優れた性能を示す。
論文 参考訳(メタデータ) (2021-10-02T17:55:20Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - When Relation Networks meet GANs: Relation GANs with Triplet Loss [110.7572918636599]
GAN(Generative Adversarial Network)の学習安定性はいまだに悩みの種である
本稿では,判別器のための関係ネットワークアーキテクチャについて検討し,より優れた一般化と安定性を実現する三重項損失を設計する。
ベンチマークデータセットの実験により、提案された関係判別器と新たな損失は、可変視覚タスクに大幅な改善をもたらすことが示された。
論文 参考訳(メタデータ) (2020-02-24T11:35:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。