論文の概要: FairGLVQ: Fairness in Partition-Based Classification
- arxiv url: http://arxiv.org/abs/2410.12452v1
- Date: Wed, 16 Oct 2024 11:00:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-17 13:41:40.404130
- Title: FairGLVQ: Fairness in Partition-Based Classification
- Title(参考訳): FairGLVQ: 分割に基づく分類の公平性
- Authors: Felix Störck, Fabian Hinder, Johannes Brinkrolf, Benjamin Paassen, Valerie Vaquet, Barbara Hammer,
- Abstract要約: 本研究では,特定の公平性定義に依存しない分割モデルに対して,公平な機械学習を行うための一般的なフレームワークを開発する。
学習ベクトル量子化(LVQ)の公平なバージョンを特定のインスタンス化として導出する。
理論的および実世界のデータに関する文献から得られた他のアルゴリズムと比較し,その実用的妥当性を示す。
- 参考スコア(独自算出の注目度): 5.548241734363096
- License:
- Abstract: Fairness is an important objective throughout society. From the distribution of limited goods such as education, over hiring and payment, to taxes, legislation, and jurisprudence. Due to the increasing importance of machine learning approaches in all areas of daily life including those related to health, security, and equity, an increasing amount of research focuses on fair machine learning. In this work, we focus on the fairness of partition- and prototype-based models. The contribution of this work is twofold: 1) we develop a general framework for fair machine learning of partition-based models that does not depend on a specific fairness definition, and 2) we derive a fair version of learning vector quantization (LVQ) as a specific instantiation. We compare the resulting algorithm against other algorithms from the literature on theoretical and real-world data showing its practical relevance.
- Abstract(参考訳): 公正は社会全体において重要な目標である。
教育、雇用や給与の超過、税金、法律、法学などの限られた商品の流通から。
健康、セキュリティ、株式など、日常生活のあらゆる領域における機械学習アプローチの重要性が増しているため、公正な機械学習に焦点を当てた研究が増えている。
本研究では,分割型モデルとプロトタイプ型モデルの公平性に着目した。
この作品の貢献は2つあります。
1) 特定の公平性の定義に依存しない分割型モデルの公平性学習のための汎用フレームワークを開発し, 提案する。
2)学習ベクトル量子化(LVQ)の公平なバージョンを特定のインスタンス化として導出する。
理論的および実世界のデータに関する文献から得られた他のアルゴリズムと比較し,その実用的妥当性を示す。
関連論文リスト
- A Benchmark for Fairness-Aware Graph Learning [58.515305543487386]
本稿では,10の代表的な公正性を考慮したグラフ学習手法に関する広範なベンチマークを示す。
我々の詳細な分析は、既存の手法の強みと限界に関する重要な洞察を明らかにしている。
論文 参考訳(メタデータ) (2024-07-16T18:43:43Z) - Learning Fair Classifiers via Min-Max F-divergence Regularization [13.81078324883519]
公平な分類モデルを学ぶための新しい min-max F-divergence regularization フレームワークを提案する。
F分割測度は凸性と微分可能性特性を有することを示す。
提案手法は, 精度と公平性のトレードオフに関して, 最先端の性能を実現するものであることを示す。
論文 参考訳(メタデータ) (2023-06-28T20:42:04Z) - FFB: A Fair Fairness Benchmark for In-Processing Group Fairness Methods [84.1077756698332]
本稿では,グループフェアネス手法のベンチマークフレームワークであるFair Fairness Benchmark(textsfFFB)を紹介する。
グループフェアネスの異なる概念を確実にするための最先端手法を包括的に分析する。
論文 参考訳(メタデータ) (2023-06-15T19:51:28Z) - Fairness meets Cross-Domain Learning: a new perspective on Models and
Metrics [80.07271410743806]
クロスドメイン学習(CD)とモデルフェアネスの関係について検討する。
いくつかの人口集団にまたがる顔画像と医療画像のベンチマークと、分類とローカライゼーションタスクについて紹介する。
本研究は,3つの最先端フェアネスアルゴリズムとともに,14のCDアプローチをカバーし,前者が後者に勝ることを示す。
論文 参考訳(メタデータ) (2023-03-25T09:34:05Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Towards Understanding Fairness and its Composition in Ensemble Machine
Learning [6.495021431429491]
私たちは、バッグング、ブースティング、積み重ね、投票といった、人気のある現実世界のアンサンブルを研究します。
フェアネスの構成を理解するために、既存のフェアネスメトリクスを使用します。
その結果,アンサンブルは緩和技術を用いることなく,より公平に設計できることがわかった。
論文 参考訳(メタデータ) (2022-12-08T22:51:13Z) - Practical Approaches for Fair Learning with Multitype and Multivariate
Sensitive Attributes [70.6326967720747]
現実世界に展開された機械学習アルゴリズムが不公平さや意図しない社会的結果をもたらすことはないことを保証することが重要である。
本稿では,カーネルHilbert Spacesの相互共分散演算子上に構築されたフェアネス尺度であるFairCOCCOを紹介する。
実世界のデータセットにおける予測能力と公正性のバランスをとる上で、最先端技術に対する一貫した改善を実証的に示す。
論文 参考訳(メタデータ) (2022-11-11T11:28:46Z) - Fair Inference for Discrete Latent Variable Models [12.558187319452657]
デュエルケアなしでデータに基づいて訓練された機械学習モデルは、特定の人口に対して不公平で差別的な行動を示すことが多い。
本研究では,変動分布に公平なペナルティを含む離散潜伏変数に対して,公平な変分推論手法を開発した。
提案手法の一般化と実世界への影響の可能性を示すため,刑事司法リスク評価のための特別目的グラフィカルモデルを構築した。
論文 参考訳(メタデータ) (2022-09-15T04:54:21Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Machine learning fairness notions: Bridging the gap with real-world
applications [4.157415305926584]
フェアネスは、機械学習予測システムが特定の個人やサブ人口全体に対して差別しないことを保証する重要な要件として現れた。
本稿では,多くの事例とシナリオを通じて,公平性の概念間の微妙な関係について述べる。
論文 参考訳(メタデータ) (2020-06-30T13:01:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。