論文の概要: A Maximal Correlation Approach to Imposing Fairness in Machine Learning
- arxiv url: http://arxiv.org/abs/2012.15259v1
- Date: Wed, 30 Dec 2020 18:15:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-18 11:22:32.709128
- Title: A Maximal Correlation Approach to Imposing Fairness in Machine Learning
- Title(参考訳): 機械学習におけるフェアネスの最大相関手法
- Authors: Joshua Lee, Yuheng Bu, Prasanna Sattigeri, Rameswar Panda, Gregory
Wornell, Leonid Karlinsky, Rogerio Feris
- Abstract要約: 我々は,情報理論の観点から,アルゴリズムフェアネスの問題を探究する。
公正度制約を表現するための最大相関フレームワークを導入し、独立性や分離性に基づく公正度基準を強制する正規化要因を導出できることを示した。
これらのアルゴリズムは, 離散データセット(COMPAS, アダルト)と連続データセット(コミュニティ, 犯罪)の両面において, スムーズなパフォーマンス・フェアネストレードオフ曲線を提供し, 最先端の手法と競合することを示す。
- 参考スコア(独自算出の注目度): 25.773384159810234
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As machine learning algorithms grow in popularity and diversify to many
industries, ethical and legal concerns regarding their fairness have become
increasingly relevant. We explore the problem of algorithmic fairness, taking
an information-theoretic view. The maximal correlation framework is introduced
for expressing fairness constraints and shown to be capable of being used to
derive regularizers that enforce independence and separation-based fairness
criteria, which admit optimization algorithms for both discrete and continuous
variables which are more computationally efficient than existing algorithms. We
show that these algorithms provide smooth performance-fairness tradeoff curves
and perform competitively with state-of-the-art methods on both discrete
datasets (COMPAS, Adult) and continuous datasets (Communities and Crimes).
- Abstract(参考訳): 機械学習アルゴリズムの人気が高まり、多くの産業に多様化するにつれて、その公平性に関する倫理的および法的懸念が益々関連している。
我々は,情報理論の観点から,アルゴリズムフェアネスの問題を探究する。
最大相関フレームワーク(maximal correlation framework)は、フェアネス制約を表現するために導入されたもので、独立性と分離ベースのフェアネス基準を強制する正規化子を導出し、既存のアルゴリズムよりも計算効率のよい離散変数と連続変数の両方の最適化アルゴリズムを許容できることが示されている。
これらのアルゴリズムは、スムーズなパフォーマンス・フェアネストレードオフ曲線を提供し、離散データセット(compas, adult)と連続データセット(communities and crime)の両方において最先端の手法と競合する。
関連論文リスト
- Optimisation Strategies for Ensuring Fairness in Machine Learning: With and Without Demographics [4.662958544712181]
本稿では,機械学習フェアネスにおけるオープンな問題に対処するための2つの形式的枠組みを紹介する。
あるフレームワークでは、オペレータ値の最適化とmin-maxの目的が時系列問題の不正性に対処するために使用される。
第2のフレームワークでは、一般的に使用されるデータセットにおいて、性別や人種などのセンシティブな属性を欠くという課題に対処する。
論文 参考訳(メタデータ) (2024-11-13T22:29:23Z) - A Semidefinite Relaxation Approach for Fair Graph Clustering [1.03590082373586]
本研究では、異なる影響原理の枠組みの中で、公正なグラフクラスタリングを導入する。
我々は、基礎となる最適化問題を近似するために半定緩和法を用いる。
論文 参考訳(メタデータ) (2024-10-19T22:51:24Z) - Optimal Group Fair Classifiers from Linear Post-Processing [10.615965454674901]
本稿では,グループフェアネス基準の統一されたファミリーの下でモデルバイアスを緩和するフェア分類のためのポストプロセッシングアルゴリズムを提案する。
与えられたベースモデルの出力スコアを、(予測された)グループのメンバシップの線形結合である「公正コスト」で再計算することで、公平性を達成する。
論文 参考訳(メタデータ) (2024-05-07T05:58:44Z) - Fairness in Matching under Uncertainty [78.39459690570531]
アルゴリズム的な二面市場は、こうした設定における公平性の問題に注意を向けている。
我々は、利益の不確実性を尊重する両面の市場設定において、個々人の公正性の概念を公理化する。
そこで我々は,配当よりも公平なユーティリティ最大化分布を求めるために,線形プログラミングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-02-08T00:30:32Z) - Practical Approaches for Fair Learning with Multitype and Multivariate
Sensitive Attributes [70.6326967720747]
現実世界に展開された機械学習アルゴリズムが不公平さや意図しない社会的結果をもたらすことはないことを保証することが重要である。
本稿では,カーネルHilbert Spacesの相互共分散演算子上に構築されたフェアネス尺度であるFairCOCCOを紹介する。
実世界のデータセットにおける予測能力と公正性のバランスをとる上で、最先端技術に対する一貫した改善を実証的に示す。
論文 参考訳(メタデータ) (2022-11-11T11:28:46Z) - FAIRLEARN:Configurable and Interpretable Algorithmic Fairness [1.2183405753834557]
トレーニングサンプルから生じるバイアスや、データサンプルに関する暗黙の仮定を緩和する必要がある。
最適化の異なる段階でバイアスを検出し緩和することで、学習アルゴリズムを公平にするために多くのアプローチが提案されている。
本稿では,ユーザの制約を最適化手順に組み込むことで,公平なアルゴリズムを生成するFAIRLEARN手順を提案する。
論文 参考訳(メタデータ) (2021-11-17T03:07:18Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Beyond Individual and Group Fairness [90.4666341812857]
本稿では,不公平な不公平な苦情に導かれる公平さの新しいデータ駆動モデルを提案する。
我々のモデルは、複数のフェアネス基準をサポートし、それらの潜在的な不整合を考慮に入れている。
論文 参考訳(メタデータ) (2020-08-21T14:14:44Z) - Spectrum-Guided Adversarial Disparity Learning [52.293230153385124]
本稿では,新たなエンド・ツー・エンドの知識指向学習フレームワークを提案する。
2つの競合符号化分布を用いてクラス条件付きクラス内不一致を表現し、学習された不一致を識別することで精製された潜伏符号を学習する。
4つのHARベンチマークデータセットに対する実験により,提案手法の頑健性と,最先端の手法による一般化が実証された。
論文 参考訳(メタデータ) (2020-07-14T05:46:27Z) - Fair Correlation Clustering [92.15492066925977]
相関クラスタリングの近似アルゴリズムは,いくつかの重要なフェアネス制約の下で得られる。
相関クラスタリングに対する公平な解は、最先端の(不公平な)アルゴリズムと比較して、コストを抑えながら得られることを示す。
論文 参考訳(メタデータ) (2020-02-06T14:28:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。