論文の概要: Fast Fair Regression via Efficient Approximations of Mutual Information
- arxiv url: http://arxiv.org/abs/2002.06200v1
- Date: Fri, 14 Feb 2020 08:50:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-01 04:15:02.394319
- Title: Fast Fair Regression via Efficient Approximations of Mutual Information
- Title(参考訳): 相互情報の効率的な近似による高速公正回帰
- Authors: Daniel Steinberg, Alistair Reid, Simon O'Callaghan, Finnian Lattimore,
Lachlan McCalman, Tiberio Caetano
- Abstract要約: 本稿では, 回帰モデルに対する独立性, 分離性, 充足性グループフェアネス基準の高速な近似について紹介する。
正規化リスク最小化フレームワーク内で公正性を強制するために、正規化のような近似を使用する。
実世界のデータセットでの実験では、計算効率が優れているにもかかわらず、我々のアルゴリズムは依然として最先端の精度/フェアネスのトレードオフを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most work in algorithmic fairness to date has focused on discrete outcomes,
such as deciding whether to grant someone a loan or not. In these
classification settings, group fairness criteria such as independence,
separation and sufficiency can be measured directly by comparing rates of
outcomes between subpopulations. Many important problems however require the
prediction of a real-valued outcome, such as a risk score or insurance premium.
In such regression settings, measuring group fairness criteria is
computationally challenging, as it requires estimating information-theoretic
divergences between conditional probability density functions. This paper
introduces fast approximations of the independence, separation and sufficiency
group fairness criteria for regression models from their (conditional) mutual
information definitions, and uses such approximations as regularisers to
enforce fairness within a regularised risk minimisation framework. Experiments
in real-world datasets indicate that in spite of its superior computational
efficiency our algorithm still displays state-of-the-art accuracy/fairness
tradeoffs.
- Abstract(参考訳): アルゴリズム的公平性におけるほとんどの仕事は、例えば誰かにローンを与えるかどうかなど、個別の結果に焦点を当てている。
これらの分類設定では、サブポピュレーション間の結果の比率を比較することにより、独立性、分離性、満足度などのグループフェアネス基準を直接測定することができる。
しかし、多くの重要な問題は、リスクスコアや保険料などの実際の評価結果の予測を必要とする。
このような回帰環境では、条件付き確率密度関数間の情報理論的な発散を推定する必要があるため、グループの公平性基準の測定は計算的に困難である。
本稿では,レグレッションモデルの独立性,分離性,十分群フェアネス基準を(条件付き)相互情報定義から高速に近似し,正規化リスク最小化フレームワーク内でのフェアネスの実施にレギュラーサのような近似を用いる。
実世界のデータセットの実験では、計算効率が優れているにもかかわらず、我々のアルゴリズムは依然として最先端の精度/フェアネスのトレードオフを示す。
関連論文リスト
- Correcting Underrepresentation and Intersectional Bias for Fair
Classification [55.2480439325792]
偏見バイアスによって劣化したデータから学習する問題について考察し, 正の例を, 一定の数のセンシティブなグループに対して, 異なる未知のレートでフィルタする。
交叉群のメンバーシップが各交叉率を計算不能にするような設定であっても,少数の偏りのないデータを用いてグループワイド・ドロップアウトパラメータを効率的に推定できることが示される。
我々は,この学習と再重み付け過程をカプセル化するアルゴリズムを提案し,高い確率で真の分布に対する仮説のリスクが任意に近いことをPACスタイルの強い保証を提供する。
論文 参考訳(メタデータ) (2023-06-19T18:25:44Z) - Adapting Fairness Interventions to Missing Values [4.820576346277399]
実世界のデータにおける値の欠落は、アルゴリズムの公正性に顕著でユニークな課題をもたらす。
最初のデータがインプットされ、次に、そのインプットされたデータが分類に使用されるような、欠落した値を扱うための標準的な手順は、識別を悪化させる。
我々は,値の欠落を伴う公平な分類のためのスケーラブルで適応的なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-05-30T21:50:48Z) - FaiREE: Fair Classification with Finite-Sample and Distribution-Free
Guarantee [40.10641140860374]
FaiREE は群フェアネス制約を有限サンプルと分布自由な理論保証で満たす公平な分類アルゴリズムである。
FaiREEは最先端のアルゴリズムよりも優れた性能を示した。
論文 参考訳(メタデータ) (2022-11-28T05:16:20Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Costs and Benefits of Wasserstein Fair Regression [11.134279147254361]
本稿では,レグレッション・セッティングにおける統計的パリティと精度の相違点を特徴付ける。
我々の下限はシャープでアルゴリズムに依存しておらず、単純な解釈を許している。
我々は,表現学習のレンズを用いて,公正回帰のための実用的なアルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-06-16T14:24:44Z) - Risk Minimization from Adaptively Collected Data: Guarantees for
Supervised and Policy Learning [57.88785630755165]
経験的リスク最小化(Empirical Risk Minimization, ERM)は、機械学習のワークホースであるが、適応的に収集されたデータを使用すると、そのモデルに依存しない保証が失敗する可能性がある。
本研究では,仮説クラス上での損失関数の平均値を最小限に抑えるため,適応的に収集したデータを用いた一般的な重み付きERMアルゴリズムについて検討する。
政策学習では、探索がゼロになるたびに既存の文献のオープンギャップを埋める率-最適後悔保証を提供する。
論文 参考訳(メタデータ) (2021-06-03T09:50:13Z) - Beyond Individual and Group Fairness [90.4666341812857]
本稿では,不公平な不公平な苦情に導かれる公平さの新しいデータ駆動モデルを提案する。
我々のモデルは、複数のフェアネス基準をサポートし、それらの潜在的な不整合を考慮に入れている。
論文 参考訳(メタデータ) (2020-08-21T14:14:44Z) - Conformal Inference of Counterfactuals and Individual Treatment Effects [6.810856082577402]
そこで本研究では,反ファクトや個々の治療効果について,信頼できる間隔を推定できる共形推論に基づく手法を提案する。
既存の手法は、単純なモデルであってもかなりのカバレッジの欠陥に悩まされる。
論文 参考訳(メタデータ) (2020-06-11T01:03:32Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z) - GenDICE: Generalized Offline Estimation of Stationary Values [108.17309783125398]
重要なアプリケーションでは,効果的な推定が依然として可能であることを示す。
我々のアプローチは、定常分布と経験分布の差を補正する比率を推定することに基づいている。
結果として得られるアルゴリズム、GenDICEは単純で効果的である。
論文 参考訳(メタデータ) (2020-02-21T00:27:52Z) - Fairness Measures for Regression via Probabilistic Classification [0.0]
アルゴリズムフェアネス(英: Algorithmic Fairness)とは、機械学習アルゴリズムが最適化できる定量尺度として、公平性や合理的な扱いなどの概念を表現することである。
これは、分類公正度尺度が結果の比率を比較することで容易に計算され、同じ資格を持つ男性の割合が適格女性として選択されるような行動につながるためである。
しかし、そのような尺度は、価格や支払いの割当といった問題に対する継続的な回帰設定を一般化することは、計算的に困難である。
回帰設定では, 保護属性の異なる条件確率の比率として, 独立性, 分離性, 充足性基準の抽出可能な近似を導入する。
論文 参考訳(メタデータ) (2020-01-16T21:53:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。