論文の概要: Towards a Fairness-Aware Scoring System for Algorithmic Decision-Making
- arxiv url: http://arxiv.org/abs/2109.10053v1
- Date: Tue, 21 Sep 2021 09:46:35 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-22 14:09:13.561725
- Title: Towards a Fairness-Aware Scoring System for Algorithmic Decision-Making
- Title(参考訳): アルゴリズムによる意思決定のためのフェアネス対応スコアシステムに向けて
- Authors: Yi Yang, Ying Wu, Xiangyu Chang, Mei Li
- Abstract要約: 本稿では,データ駆動型フェアネス対応スコアリングシステムを構築するための一般的なフレームワークを提案する。
提案するフレームワークは,実践者や政策立案者に対して,希望する公正性要件を選択するための柔軟性を提供する。
- 参考スコア(独自算出の注目度): 35.21763166288736
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Scoring systems, as simple classification models, have significant advantages
in interpretability and transparency when making predictions. It facilitates
humans' decision-making by allowing them to make a quick prediction by hand
through adding and subtracting a few point scores and thus has been widely used
in various fields such as medical diagnosis of Intensive Care Units. However,
the (un)fairness issues in these models have long been criticized, and the use
of biased data in the construction of score systems heightens this concern. In
this paper, we proposed a general framework to create data-driven
fairness-aware scoring systems. Our approach is first to develop a social
welfare function that incorporates both efficiency and equity. Then, we
translate the social welfare maximization problem in economics into the
empirical risk minimization task in the machine learning community to derive a
fairness-aware scoring system with the help of mixed integer programming. We
show that the proposed framework provides practitioners or policymakers great
flexibility to select their desired fairness requirements and also allows them
to customize their own requirements by imposing various operational
constraints. Experimental evidence on several real data sets verifies that the
proposed scoring system can achieve the optimal welfare of stakeholders and
balance the interpretability, fairness, and efficiency issues.
- Abstract(参考訳): 単純な分類モデルとしてスコーリングシステムは、予測を行う際の解釈可能性と透明性において大きな利点がある。
数点の点数を加えて手動による迅速な予測を行うことで、人間の意思決定を促進するため、集中治療室の診断など様々な分野で広く利用されている。
しかしながら、これらのモデルにおける(不公平な)問題は長い間批判され、スコアシステム構築におけるバイアスデータの使用は、この懸念を高める。
本稿では,データ駆動フェアネスアウェアスコアリングシステムを構築するための汎用フレームワークを提案する。
我々のアプローチは、効率性と公平性の両方を取り入れた社会福祉機能を開発することである。
そこで我々は,経済学における社会福祉の最大化問題を機械学習コミュニティにおける経験的リスク最小化タスクに翻訳し,混合整数プログラミングの助けを借りて公平性を考慮したスコアリングシステムを構築する。
提案フレームワークが実践者や政策立案者に対して,所望の公平性要件を選択できる柔軟性を提供し,様々な運用上の制約を課すことで,独自の要件をカスタマイズできることを示す。
いくつかの実データ集合における実験的な証拠は、提案されたスコアリングシステムが利害関係者の最適な福祉を実現し、解釈可能性、公平性、効率性の問題とバランスをとることができることを検証している。
関連論文リスト
- Parametric Fairness with Statistical Guarantees [0.46040036610482665]
我々は、予測に分布特性を組み込むためのデモグラフィックパリティの概念を拡張し、専門家の知識を公正なソリューションで利用できるようにする。
我々は、賃金の実践的な例を通して、この新しい指標の使用を説明し、実践的な課題に効率的に対処するパラメトリック手法を開発する。
論文 参考訳(メタデータ) (2023-10-31T14:52:39Z) - Fairness Explainability using Optimal Transport with Applications in
Image Classification [0.46040036610482665]
機械学習アプリケーションにおける差別の原因を明らかにするための包括的アプローチを提案する。
We leverage Wasserstein barycenters to achieve fair predictions and introduce an extension to pinpoint bias-associated region。
これにより、各特徴がバイアスに影響を及ぼすかどうかを測定するために強制的公正性を使用する凝集系を導出することができる。
論文 参考訳(メタデータ) (2023-08-22T00:10:23Z) - Causal Fairness for Outcome Control [68.12191782657437]
本稿では,自動システムにおいて,公平かつ公平な結果変数を最適化することを目的とした,結果制御と呼ばれる特定の意思決定タスクについて検討する。
本稿では、まず因果レンズを通して利益の概念を分析し、特定の個人が肯定的な決定によってどれだけの利益を得られるかを明らかにする。
次に、保護された属性の影響を受けている可能性があることに留意し、これを分析するために使用できる因果的ツールを提案する。
論文 参考訳(メタデータ) (2023-06-08T09:31:18Z) - Fairness in Matching under Uncertainty [78.39459690570531]
アルゴリズム的な二面市場は、こうした設定における公平性の問題に注意を向けている。
我々は、利益の不確実性を尊重する両面の市場設定において、個々人の公正性の概念を公理化する。
そこで我々は,配当よりも公平なユーティリティ最大化分布を求めるために,線形プログラミングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-02-08T00:30:32Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - Measuring and signing fairness as performance under multiple stakeholder
distributions [39.54243229669015]
学習システムの公正度を測定するための最良のツールは、数学的ワンライナーとしてカプセル化された剛性公正度メトリクスである。
本稿では, フェアネス指標の定式化から, それらが計算される例の分布の算出に焦点を移すことを提案する。
ストレステストのための完全な実装ガイドラインを提供し、このフレームワークの利点と欠点の両方を説明します。
論文 参考訳(メタデータ) (2022-07-20T15:10:02Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - All of the Fairness for Edge Prediction with Optimal Transport [11.51786288978429]
グラフにおけるエッジ予測の課題に対する公平性の問題について検討する。
本稿では,任意のグラフの隣接行列に対して,グループと個々の公正性のトレードオフを伴う埋め込み非依存の補修手順を提案する。
論文 参考訳(メタデータ) (2020-10-30T15:33:13Z) - Accuracy and Fairness Trade-offs in Machine Learning: A Stochastic
Multi-Objective Approach [0.0]
機械学習を実生活の意思決定システムに適用すると、予測結果は機密性の高い属性を持つ人々に対して差別され、不公平になる可能性がある。
公正機械学習における一般的な戦略は、予測損失の最小化において、制約や罰則として公正さを含めることである。
本稿では,多目的最適化問題を定式化して公平性を扱うための新しい手法を提案する。
論文 参考訳(メタデータ) (2020-08-03T18:51:24Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。