論文の概要: Fast Fair Regression via Efficient Approximations of Mutual Information
- arxiv url: http://arxiv.org/abs/2002.06200v1
- Date: Fri, 14 Feb 2020 08:50:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-01 04:15:02.394319
- Title: Fast Fair Regression via Efficient Approximations of Mutual Information
- Title(参考訳): 相互情報の効率的な近似による高速公正回帰
- Authors: Daniel Steinberg, Alistair Reid, Simon O'Callaghan, Finnian Lattimore,
Lachlan McCalman, Tiberio Caetano
- Abstract要約: 本稿では, 回帰モデルに対する独立性, 分離性, 充足性グループフェアネス基準の高速な近似について紹介する。
正規化リスク最小化フレームワーク内で公正性を強制するために、正規化のような近似を使用する。
実世界のデータセットでの実験では、計算効率が優れているにもかかわらず、我々のアルゴリズムは依然として最先端の精度/フェアネスのトレードオフを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most work in algorithmic fairness to date has focused on discrete outcomes,
such as deciding whether to grant someone a loan or not. In these
classification settings, group fairness criteria such as independence,
separation and sufficiency can be measured directly by comparing rates of
outcomes between subpopulations. Many important problems however require the
prediction of a real-valued outcome, such as a risk score or insurance premium.
In such regression settings, measuring group fairness criteria is
computationally challenging, as it requires estimating information-theoretic
divergences between conditional probability density functions. This paper
introduces fast approximations of the independence, separation and sufficiency
group fairness criteria for regression models from their (conditional) mutual
information definitions, and uses such approximations as regularisers to
enforce fairness within a regularised risk minimisation framework. Experiments
in real-world datasets indicate that in spite of its superior computational
efficiency our algorithm still displays state-of-the-art accuracy/fairness
tradeoffs.
- Abstract(参考訳): アルゴリズム的公平性におけるほとんどの仕事は、例えば誰かにローンを与えるかどうかなど、個別の結果に焦点を当てている。
これらの分類設定では、サブポピュレーション間の結果の比率を比較することにより、独立性、分離性、満足度などのグループフェアネス基準を直接測定することができる。
しかし、多くの重要な問題は、リスクスコアや保険料などの実際の評価結果の予測を必要とする。
このような回帰環境では、条件付き確率密度関数間の情報理論的な発散を推定する必要があるため、グループの公平性基準の測定は計算的に困難である。
本稿では,レグレッションモデルの独立性,分離性,十分群フェアネス基準を(条件付き)相互情報定義から高速に近似し,正規化リスク最小化フレームワーク内でのフェアネスの実施にレギュラーサのような近似を用いる。
実世界のデータセットの実験では、計算効率が優れているにもかかわらず、我々のアルゴリズムは依然として最先端の精度/フェアネスのトレードオフを示す。
関連論文リスト
- Finite-Sample and Distribution-Free Fair Classification: Optimal Trade-off Between Excess Risk and Fairness, and the Cost of Group-Blindness [14.421493372559762]
グループフェアネス制約下の二項分類におけるアルゴリズムフェアネスとグループブレンドネスの強制効果を定量化する。
制御された過剰リスクを伴う分布自由かつ有限サンプルフェアネスを保証するフェア分類のための統一的なフレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-21T20:04:17Z) - Uncertainty-Aware Fairness-Adaptive Classification Trees [0.0]
本稿では,木構築プロセスに公平性調整を組み込んだ新しい分割基準を用いた新しい分類木アルゴリズムを提案する。
本手法は,従来の分類木に比べて識別予測を効果的に削減し,全体的な精度を損なわないことを示す。
論文 参考訳(メタデータ) (2024-10-08T08:42:12Z) - FaiREE: Fair Classification with Finite-Sample and Distribution-Free
Guarantee [40.10641140860374]
FaiREE は群フェアネス制約を有限サンプルと分布自由な理論保証で満たす公平な分類アルゴリズムである。
FaiREEは最先端のアルゴリズムよりも優れた性能を示した。
論文 参考訳(メタデータ) (2022-11-28T05:16:20Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Costs and Benefits of Wasserstein Fair Regression [11.134279147254361]
本稿では,レグレッション・セッティングにおける統計的パリティと精度の相違点を特徴付ける。
我々の下限はシャープでアルゴリズムに依存しておらず、単純な解釈を許している。
我々は,表現学習のレンズを用いて,公正回帰のための実用的なアルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-06-16T14:24:44Z) - Risk Minimization from Adaptively Collected Data: Guarantees for
Supervised and Policy Learning [57.88785630755165]
経験的リスク最小化(Empirical Risk Minimization, ERM)は、機械学習のワークホースであるが、適応的に収集されたデータを使用すると、そのモデルに依存しない保証が失敗する可能性がある。
本研究では,仮説クラス上での損失関数の平均値を最小限に抑えるため,適応的に収集したデータを用いた一般的な重み付きERMアルゴリズムについて検討する。
政策学習では、探索がゼロになるたびに既存の文献のオープンギャップを埋める率-最適後悔保証を提供する。
論文 参考訳(メタデータ) (2021-06-03T09:50:13Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Beyond Individual and Group Fairness [90.4666341812857]
本稿では,不公平な不公平な苦情に導かれる公平さの新しいデータ駆動モデルを提案する。
我々のモデルは、複数のフェアネス基準をサポートし、それらの潜在的な不整合を考慮に入れている。
論文 参考訳(メタデータ) (2020-08-21T14:14:44Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z) - GenDICE: Generalized Offline Estimation of Stationary Values [108.17309783125398]
重要なアプリケーションでは,効果的な推定が依然として可能であることを示す。
我々のアプローチは、定常分布と経験分布の差を補正する比率を推定することに基づいている。
結果として得られるアルゴリズム、GenDICEは単純で効果的である。
論文 参考訳(メタデータ) (2020-02-21T00:27:52Z) - Fairness Measures for Regression via Probabilistic Classification [0.0]
アルゴリズムフェアネス(英: Algorithmic Fairness)とは、機械学習アルゴリズムが最適化できる定量尺度として、公平性や合理的な扱いなどの概念を表現することである。
これは、分類公正度尺度が結果の比率を比較することで容易に計算され、同じ資格を持つ男性の割合が適格女性として選択されるような行動につながるためである。
しかし、そのような尺度は、価格や支払いの割当といった問題に対する継続的な回帰設定を一般化することは、計算的に困難である。
回帰設定では, 保護属性の異なる条件確率の比率として, 独立性, 分離性, 充足性基準の抽出可能な近似を導入する。
論文 参考訳(メタデータ) (2020-01-16T21:53:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。