論文の概要: Genetic programming approaches to learning fair classifiers
- arxiv url: http://arxiv.org/abs/2004.13282v1
- Date: Tue, 28 Apr 2020 04:20:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-08 22:08:23.130495
- Title: Genetic programming approaches to learning fair classifiers
- Title(参考訳): 遺伝的プログラミングによる公平な分類器の学習
- Authors: William La Cava and Jason H. Moore
- Abstract要約: フェアネスを分類のための遺伝的プログラミングに組み込んだ、公正さと動機付けの提案に対する現在のアプローチについて論じる。
1つ目は、フェアネスの目的を多目的最適化に組み込むことである。
2つ目は、保護群の交叉上のケースを動的に定義するために語彙選択を適用することである。
- 参考スコア(独自算出の注目度): 4.901632310846025
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Society has come to rely on algorithms like classifiers for important
decision making, giving rise to the need for ethical guarantees such as
fairness. Fairness is typically defined by asking that some statistic of a
classifier be approximately equal over protected groups within a population. In
this paper, current approaches to fairness are discussed and used to motivate
algorithmic proposals that incorporate fairness into genetic programming for
classification. We propose two ideas. The first is to incorporate a fairness
objective into multi-objective optimization. The second is to adapt lexicase
selection to define cases dynamically over intersections of protected groups.
We describe why lexicase selection is well suited to pressure models to perform
well across the potentially infinitely many subgroups over which fairness is
desired. We use a recent genetic programming approach to construct models on
four datasets for which fairness constraints are necessary, and empirically
compare performance to prior methods utilizing game-theoretic solutions.
Methods are assessed based on their ability to generate trade-offs of subgroup
fairness and accuracy that are Pareto optimal. The result show that genetic
programming methods in general, and random search in particular, are well
suited to this task.
- Abstract(参考訳): 社会は重要な意思決定のために分類器のようなアルゴリズムに頼るようになり、公平性のような倫理的保証の必要性が生まれた。
公正性は通常、集団内の保護されたグループに対して、分類器の統計値がほぼ等しいことを問うことで定義される。
本稿では, 遺伝的プログラミングにフェアネスを組み込んだアルゴリズムの提案の動機付けとして, 公平性に対する最近のアプローチについて述べる。
我々は2つの考えを提案する。
1つ目は、公平性目標を多目的最適化に組み込むことである。
2つ目は、保護群の交叉上のケースを動的に定義するために語彙選択を適用することである。
語彙選択が圧力モデルに適しており、フェアネスが望まれる潜在的に無限に多くの部分群に対してうまく機能する理由を述べる。
我々は,近年の遺伝的プログラミング手法を用いて,公平性制約が必要な4つのデータセットのモデルを構築し,ゲーム理論的な解を用いた先行手法と性能を実証的に比較した。
方法は、パレート最適である部分群フェアネスと精度のトレードオフを生成する能力に基づいて評価される。
その結果, 遺伝的プログラミング手法, 特にランダム検索が, この課題に適していることが示唆された。
関連論文リスト
- Evaluating the Fairness of Discriminative Foundation Models in Computer
Vision [51.176061115977774]
本稿では,CLIP (Contrastive Language-Pretraining) などの差別基盤モデルのバイアス評価のための新しい分類法を提案する。
そして、これらのモデルにおけるバイアスを緩和するための既存の手法を分類学に関して体系的に評価する。
具体的には,ゼロショット分類,画像検索,画像キャプションなど,OpenAIのCLIPとOpenCLIPモデルをキーアプリケーションとして評価する。
論文 参考訳(メタデータ) (2023-10-18T10:32:39Z) - Boosting Fair Classifier Generalization through Adaptive Priority Reweighing [59.801444556074394]
より優れた一般化性を持つ性能向上フェアアルゴリズムが必要である。
本稿では,トレーニングデータとテストデータ間の分散シフトがモデル一般化性に与える影響を解消する適応的リライジング手法を提案する。
論文 参考訳(メタデータ) (2023-09-15T13:04:55Z) - Bipartite Ranking Fairness through a Model Agnostic Ordering Adjustment [54.179859639868646]
本稿では,二部類ランキングにおける公平性を実現するためのモデルに依存しない後処理フレームワークxOrderを提案する。
xOrderは、教師なしおよび教師なしの公正度メトリックを含む、さまざまな分類モデルとランキングフェアネスメトリクスと互換性がある。
提案アルゴリズムを,4つのベンチマークデータセットと2つの実世界の患者電子健康記録リポジトリ上で評価した。
論文 参考訳(メタデータ) (2023-07-27T07:42:44Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Enforcing Group Fairness in Algorithmic Decision Making: Utility
Maximization Under Sufficiency [0.0]
本稿では,PPVパリティ,偽脱落率(FOR)パリティ(False Omission rate)パリティ(FOR)パリティ(False Omission rate)パリティ(FOR)パリティ(False Omission rate)パリティ(FOR)パリティ(FOR)パリティ(Sufficiency)について述べる。
グループ固有のしきい値規則はPPVパリティとForパリティに最適であることを示す。
また,フェアネス制約を満たす最適決定規則の解も提供する。
論文 参考訳(メタデータ) (2022-06-05T18:47:34Z) - Addressing Fairness in Classification with a Model-Agnostic
Multi-Objective Algorithm [33.145522561104464]
分類における公平性の目標は、人種や性別などのセンシティブな属性に基づいて個人のグループを識別しない分類器を学習することである。
公正アルゴリズムを設計する1つのアプローチは、公正の概念の緩和を正規化項として使うことである。
我々はこの性質を利用して、既存の緩和よりも証明可能な公正の概念を近似する微分可能な緩和を定義する。
論文 参考訳(メタデータ) (2020-09-09T17:40:24Z) - Transparency Tools for Fairness in AI (Luskin) [12.158766675246337]
我々は,AIアルゴリズムにおける公平さと偏見を評価し,補正するための新しいツールを提案する。
3つのツールは以下のとおりである。 - 保護された特徴とフィルタの選択に関して、"制御された公平性"と呼ばれる新しい公平性の定義。
それらは様々なバイアスの次元を理解するのに有用であり、実際、アルゴリズムは新しいデータでテストした場合、与えられた観測されたバイアスを減らすのに効果的である。
論文 参考訳(メタデータ) (2020-07-09T00:21:54Z) - Fairness with Overlapping Groups [15.154984899546333]
標準的なゴールは、複数の重なり合うグループ間での公平度メトリクスの平等を保証することである。
本稿では、確率論的人口分析を用いて、この標準公正分類問題を再考する。
提案手法は,既存のグループフェア分類手法を統一し,様々な非分解性性能指標と公正度尺度の拡張を可能にする。
論文 参考訳(メタデータ) (2020-06-24T05:01:10Z) - Towards Model-Agnostic Post-Hoc Adjustment for Balancing Ranking
Fairness and Algorithm Utility [54.179859639868646]
Bipartiteランキングは、ラベル付きデータから正の個人よりも上位の個人をランク付けするスコアリング機能を学ぶことを目的としている。
学習したスコアリング機能が、異なる保護グループ間で体系的な格差を引き起こすのではないかという懸念が高まっている。
本稿では、二部構成のランキングシナリオにおいて、それらのバランスをとるためのモデル後処理フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-15T10:08:39Z) - Fair Classification via Unconstrained Optimization [0.0]
我々はベイズ最適公正学習規則がベイズ回帰器に対するグループワイドしきい値の規則のままであることを示す。
提案アルゴリズムは,任意のブラックボックス機械学習モデルに適用可能である。
論文 参考訳(メタデータ) (2020-05-21T11:29:05Z) - Robust Optimization for Fairness with Noisy Protected Groups [85.13255550021495]
ノイズが保護されたグループラベルに頼った結果について検討した。
頑健な最適化を用いた2つの新しいアプローチを提案する。
頑健なアプローチは、単純アプローチよりも真のグループ公平性を保証することが示される。
論文 参考訳(メタデータ) (2020-02-21T14:58:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。