論文の概要: Fair Feature Selection: A Comparison of Multi-Objective Genetic
Algorithms
- arxiv url: http://arxiv.org/abs/2310.02752v1
- Date: Wed, 4 Oct 2023 11:43:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-05 15:19:46.287483
- Title: Fair Feature Selection: A Comparison of Multi-Objective Genetic
Algorithms
- Title(参考訳): 公平な特徴選択:多目的遺伝的アルゴリズムの比較
- Authors: James Brookhouse and Alex Freitas
- Abstract要約: 本稿では,分類器による予測の精度と公平性の両方を最大化することを目的とした特徴部分集合を選択する手法として,分類のための公平な特徴選択に焦点を当てる。
最近提案された2つの遺伝的アルゴリズム(GA)を,2つの異なる多目的最適化手法に基づく公平な特徴選択に比較した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning classifiers are widely used to make decisions with a major
impact on people's lives (e.g. accepting or denying a loan, hiring decisions,
etc). In such applications,the learned classifiers need to be both accurate and
fair with respect to different groups of people, with different values of
variables such as sex and race. This paper focuses on fair feature selection
for classification, i.e. methods that select a feature subset aimed at
maximising both the accuracy and the fairness of the predictions made by a
classifier. More specifically, we compare two recently proposed Genetic
Algorithms (GAs) for fair feature selection that are based on two different
multi-objective optimisation approaches: (a) a Pareto dominance-based GA; and
(b) a lexicographic optimisation-based GA, where maximising accuracy has higher
priority than maximising fairness. Both GAs use the same measures of accuracy
and fairness, allowing for a controlled comparison. As far as we know, this is
the first comparison between the Pareto and lexicographic approaches for fair
classification. The results show that, overall, the lexicographic GA
outperformed the Pareto GA with respect to accuracy without degradation of the
fairness of the learned classifiers. This is an important result because at
present nearly all GAs for fair classification are based on the Pareto
approach, so these results suggest a promising new direction for research in
this area.
- Abstract(参考訳): 機械学習分類器は、人々の生活に大きな影響を与える意思決定(例えば、ローンの受け入れや拒否、雇用決定など)に広く使われている。
このような応用においては、学習された分類器は、性別や人種などの異なる変数の値を持つ異なる集団に対して正確かつ公平である必要がある。
本稿では,分類器による予測の精度と公平性の両方を最大化するための特徴部分集合を選択する手法として,分類のための公平な特徴選択に焦点を当てる。
具体的には、2つの異なる多目的最適化アプローチに基づく公平な特徴選択のための2つの最近提案された遺伝的アルゴリズム(GA)を比較した。
(a)パレート支配に基づくGA、及び
b) 精度の最大化が公正度を最大化するよりも優先される語彙最適化に基づくGA。
両方のガスは同じ正確さと公平さの尺度を使い、比較を制御できる。
われわれの知る限りでは、これは公正な分類のためのパレート法とレキソグラフィ法の最初の比較である。
その結果,レキシコグラフィーGAは,学習した分類器の公平さを損なうことなく,精度においてパレートGAよりも優れていた。
これは、現在フェア分類のほとんど全てのガスがパレートアプローチに基づいているため重要な結果であり、これらの結果はこの分野の研究に有望な新しい方向性を示唆している。
関連論文リスト
- Class-attribute Priors: Adapting Optimization to Heterogeneity and
Fairness Objective [54.33066660817495]
現代の分類問題は、個々のクラスにまたがって不均一性を示す。
本稿では,クラス固有の学習戦略を効果的かつ汎用的に生成するCAPを提案する。
CAPは先行技術と競合しており、その柔軟性により、バランスの取れた精度以上の公平性目標に対する明確なメリットが期待できる。
論文 参考訳(メタデータ) (2024-01-25T17:43:39Z) - Bi-discriminator Domain Adversarial Neural Networks with Class-Level
Gradient Alignment [87.8301166955305]
そこで本研究では,クラスレベルのアライメントアライメントを有するバイディミネータドメイン対向ニューラルネットワークを提案する。
BACGは、領域分布の整合性を改善するために勾配信号と二階確率推定を利用する。
さらに、対照的な学習にインスパイアされ、トレーニングプロセスを大幅に短縮できるメモリバンクベースの変種であるFast-BACGを開発した。
論文 参考訳(メタデータ) (2023-10-21T09:53:17Z) - Boosting Fair Classifier Generalization through Adaptive Priority Reweighing [59.801444556074394]
より優れた一般化性を持つ性能向上フェアアルゴリズムが必要である。
本稿では,トレーニングデータとテストデータ間の分散シフトがモデル一般化性に与える影響を解消する適応的リライジング手法を提案する。
論文 参考訳(メタデータ) (2023-09-15T13:04:55Z) - Bipartite Ranking Fairness through a Model Agnostic Ordering Adjustment [54.179859639868646]
本稿では,二部類ランキングにおける公平性を実現するためのモデルに依存しない後処理フレームワークxOrderを提案する。
xOrderは、教師なしおよび教師なしの公正度メトリックを含む、さまざまな分類モデルとランキングフェアネスメトリクスと互換性がある。
提案アルゴリズムを,4つのベンチマークデータセットと2つの実世界の患者電子健康記録リポジトリ上で評価した。
論文 参考訳(メタデータ) (2023-07-27T07:42:44Z) - A GA-like Dynamic Probability Method With Mutual Information for Feature
Selection [1.290382979353427]
相互情報を用いたGADP(GA-like dynamic probability)手法を提案する。
各遺伝子の確率は独立であるため、GADPの染色体変異は従来のGAよりも顕著である。
提案手法の優位性を検証するため,15個のデータセット上で複数の条件下で評価を行った。
論文 参考訳(メタデータ) (2022-10-21T13:30:01Z) - Fairly Accurate: Learning Optimal Accuracy vs. Fairness Tradeoffs for
Hate Speech Detection [8.841221697099687]
本稿では,モデルトレーニングにおけるグループフェアネスの直接最適化を可能にする,微分可能な尺度を提案する。
ヘイトスピーチ検出の特定のタスクについて,本手法の評価を行った。
畳み込み、シーケンシャル、トランスフォーマーに基づくニューラルネットワークによる実験結果は、事前の作業よりも経験的精度が優れている。
論文 参考訳(メタデータ) (2022-04-15T22:11:25Z) - Unbiased Subdata Selection for Fair Classification: A Unified Framework
and Scalable Algorithms [0.8376091455761261]
このフレームワーク内の多くの分類モデルが混合整数凸プログラムとして再キャストできることを示した。
そして,提案問題において,分類結果の「解決不能な部分データ選択」が強く解決可能であることを示す。
これにより、分類インスタンスを解決するための反復精錬戦略(IRS)の開発を動機付けます。
論文 参考訳(メタデータ) (2020-12-22T21:09:38Z) - Selective Classification Can Magnify Disparities Across Groups [89.14499988774985]
選択的分類は平均的精度を向上させることができるが、既存の精度格差を同時に増大させることができる。
禁忌の増大は、一部のグループでのアキュラシーを減少させることもある。
我々は,グループ間で類似のフルカバレッジ精度を実現する分散ロバストモデルを訓練し,選択分類が各グループを均一に改善することを示す。
論文 参考訳(メタデータ) (2020-10-27T08:51:30Z) - Towards Model-Agnostic Post-Hoc Adjustment for Balancing Ranking
Fairness and Algorithm Utility [54.179859639868646]
Bipartiteランキングは、ラベル付きデータから正の個人よりも上位の個人をランク付けするスコアリング機能を学ぶことを目的としている。
学習したスコアリング機能が、異なる保護グループ間で体系的な格差を引き起こすのではないかという懸念が高まっている。
本稿では、二部構成のランキングシナリオにおいて、それらのバランスをとるためのモデル後処理フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-15T10:08:39Z) - Genetic programming approaches to learning fair classifiers [4.901632310846025]
フェアネスを分類のための遺伝的プログラミングに組み込んだ、公正さと動機付けの提案に対する現在のアプローチについて論じる。
1つ目は、フェアネスの目的を多目的最適化に組み込むことである。
2つ目は、保護群の交叉上のケースを動的に定義するために語彙選択を適用することである。
論文 参考訳(メタデータ) (2020-04-28T04:20:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。