論文の概要: OxonFair: A Flexible Toolkit for Algorithmic Fairness
- arxiv url: http://arxiv.org/abs/2407.13710v2
- Date: Tue, 5 Nov 2024 13:59:31 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-08 20:01:00.730949
- Title: OxonFair: A Flexible Toolkit for Algorithmic Fairness
- Title(参考訳): OxonFair:アルゴリズムフェアネスのための柔軟なツールキット
- Authors: Eoin Delaney, Zihao Fu, Sandra Wachter, Brent Mittelstadt, Chris Russell,
- Abstract要約: OxonFairはバイナリ分類における公平性を強化するオープンソースツールキットである。
sklearn、Autogluon、PyTorchなど、標準的なMLツールキットと互換性がある。
- 参考スコア(独自算出の注目度): 10.168294659618345
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present OxonFair, a new open source toolkit for enforcing fairness in binary classification. Compared to existing toolkits: (i) We support NLP and Computer Vision classification as well as standard tabular problems. (ii) We support enforcing fairness on validation data, making us robust to a wide range of overfitting challenges. (iii) Our approach can optimize any measure based on True Positives, False Positive, False Negatives, and True Negatives. This makes it easily extensible and much more expressive than existing toolkits. It supports all 9 and all 10 of the decision-based group metrics of two popular review articles. (iv) We jointly optimize a performance objective alongside fairness constraints. This minimizes degradation while enforcing fairness, and even improves the performance of inadequately tuned unfair baselines. OxonFair is compatible with standard ML toolkits, including sklearn, Autogluon, and PyTorch and is available at https://github.com/oxfordinternetinstitute/oxonfair
- Abstract(参考訳): OxonFairはバイナリ分類における公平性を高めるための新しいオープンソースツールキットである。
既存のツールキットと比較してみましょう。
(i)NLPとコンピュータビジョンの分類と標準表問題をサポートする。
(二)検証データに対する公正性の強化をサポートし、広範囲のオーバーフィット課題に対して堅牢化を図る。
三 当社のアプローチは、真陽性、偽陰性、偽陰性、真陰性に基づくあらゆる尺度を最適化することができる。
これにより既存のツールキットよりも容易に拡張可能で表現力がある。
2つの人気のあるレビュー記事の意思決定ベースのグループメトリクスの、9つと10つのすべてをサポートする。
(4)フェアネス制約とともに,パフォーマンス目標を協調的に最適化する。
これにより、公平さを保ちながら劣化を最小限に抑え、不当に調整された不公平なベースラインの性能も向上する。
OxonFairは、sklearn、Autogluon、PyTorchを含む標準のMLツールキットと互換性があり、https://github.com/oxfordinternetinstitute/oxonfairで利用可能である。
関連論文リスト
- Rethinking Fair Graph Neural Networks from Re-balancing [26.70771023446706]
単純な再分散手法は、既存の公正なGNN手法と容易に一致するか、追い越すことができる。
本稿では,グループバランスによるGNNの不公平さを軽減するために,再バランシングによるFairGB,Fair Graph Neural Networkを提案する。
論文 参考訳(メタデータ) (2024-07-16T11:39:27Z) - Optimal Baseline Corrections for Off-Policy Contextual Bandits [61.740094604552475]
オンライン報酬指標の偏りのないオフライン推定を最適化する意思決定ポリシーを学習することを目指している。
学習シナリオにおける同値性に基づく単一のフレームワークを提案する。
我々のフレームワークは、分散最適非バイアス推定器の特徴付けを可能にし、それに対する閉形式解を提供する。
論文 参考訳(メタデータ) (2024-05-09T12:52:22Z) - Bayes-Optimal Fair Classification with Linear Disparity Constraints via
Pre-, In-, and Post-processing [32.5214395114507]
与えられた群フェアネス制約に対する分類誤差を最小限に抑えるため,ベイズ最適公正分類法を開発した。
人口格差、機会平等、予測平等からの逸脱など、いくつかの一般的な格差対策が双線形であることを示します。
本手法は, ほぼ最適フェアネス精度のトレードオフを達成しつつ, 相違を直接制御する。
論文 参考訳(メタデータ) (2024-02-05T08:59:47Z) - Bipartite Ranking Fairness through a Model Agnostic Ordering Adjustment [54.179859639868646]
本稿では,二部類ランキングにおける公平性を実現するためのモデルに依存しない後処理フレームワークxOrderを提案する。
xOrderは、教師なしおよび教師なしの公正度メトリックを含む、さまざまな分類モデルとランキングフェアネスメトリクスと互換性がある。
提案アルゴリズムを,4つのベンチマークデータセットと2つの実世界の患者電子健康記録リポジトリ上で評価した。
論文 参考訳(メタデータ) (2023-07-27T07:42:44Z) - Evaluating Graph Neural Networks for Link Prediction: Current Pitfalls
and New Benchmarking [66.83273589348758]
リンク予測は、グラフのエッジの一部のみに基づいて、目に見えないエッジが存在するかどうかを予測しようとする。
近年,この課題にグラフニューラルネットワーク(GNN)を活用すべく,一連の手法が導入されている。
これらの新しいモデルの有効性をよりよく評価するために、新しい多様なデータセットも作成されている。
論文 参考訳(メタデータ) (2023-06-18T01:58:59Z) - Multicalibrated Regression for Downstream Fairness [17.084765209458762]
我々は、回帰関数 $hatf$ を適切にマルチキャリブレーションした'' を取り、効率的に後処理する方法を示します。
後処理はラベル付きデータを必要としない。
論文 参考訳(メタデータ) (2022-09-15T14:16:01Z) - Optimizing Partial Area Under the Top-k Curve: Theory and Practice [151.5072746015253]
トップk曲線下部分領域(AUTKC)と呼ばれる新しい計量法を開発した。
AUTKCはより優れた識別能力を持ち、ベイズ最適スコア関数は条件付き確率に対して正しいトップKランクを与えることができる。
提案手法を最適化するために,実証的なサロゲートリスク最小化フレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-03T11:09:13Z) - Fair Wrapping for Black-box Predictions [105.10203274098862]
予測を修飾するα木として定義したラッパー関数を学習する。
この修正は, アルファツリーの構成, 一般化, 解釈可能性, および修正された予測とオリジナル予測のKLの相違に関して, 魅力的な性質を有することを示す。
論文 参考訳(メタデータ) (2022-01-31T01:02:39Z) - Fair Enough: Searching for Sufficient Measures of Fairness [20.747231692331695]
倫理的偏見のために機械学習ソフトウェアをテストすることは、現在の関心事となっている。
最近の研究では、IBM AIF360ツールキットにおける数十のフェアネス指標など、多数の新しいフェアネス指標が提案されている。
本稿は、これらの公平度指標の多くが、効果的に同じことを測定していることを示している。
論文 参考訳(メタデータ) (2021-10-25T15:08:07Z) - Minimax Group Fairness: Algorithms and Experiments [18.561824632836405]
我々は,極小群フェアネスのための有意収束性オラクル効率学習アルゴリズムを提供する。
我々のアルゴリズムは回帰と分類の両方に当てはまる。
ミニマックスフェアネスが厳密で、平等な結果の概念よりも強く好ましい経験的ケースを示す。
論文 参考訳(メタデータ) (2020-11-05T21:42:56Z) - Deep F-measure Maximization for End-to-End Speech Understanding [52.36496114728355]
本稿では,F測度に対する微分可能な近似法を提案し,標準バックプロパゲーションを用いてネットワークをトレーニングする。
我々は、アダルト、コミュニティ、犯罪の2つの標準フェアネスデータセットの実験を行い、ATISデータセットの音声・インテリジェンス検出と音声・COCOデータセットの音声・イメージ概念分類を行った。
これらの4つのタスクのすべてにおいて、F測定は、クロスエントロピー損失関数で訓練されたモデルと比較して、最大8%の絶対的な絶対的な改善を含む、マイクロF1スコアの改善をもたらす。
論文 参考訳(メタデータ) (2020-08-08T03:02:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。