論文の概要: Aggregating Concepts of Accuracy and Fairness in Prediction Algorithms
- arxiv url: http://arxiv.org/abs/2505.08829v2
- Date: Thu, 15 May 2025 12:19:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-16 12:00:18.775782
- Title: Aggregating Concepts of Accuracy and Fairness in Prediction Algorithms
- Title(参考訳): 予測アルゴリズムにおける精度と公平性の概念の集約
- Authors: David Kinney,
- Abstract要約: 精度と公平度を線形に組み合わせて、予測アルゴリズムの全てを考慮に入れた値を測定するには、十分な理由がある、と私は論じる。
AngwinらによってコンパイルされたCompASデータセットを用いて、精度・公正トレードオフの分析に私の結果を適用します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: An algorithm that outputs predictions about the state of the world will almost always be designed with the implicit or explicit goal of outputting accurate predictions (i.e., predictions that are likely to be true). In addition, the rise of increasingly powerful predictive algorithms brought about by the recent revolution in artificial intelligence has led to an emphasis on building predictive algorithms that are fair, in the sense that their predictions do not systematically evince bias or bring about harm to certain individuals or groups. This state of affairs presents two conceptual challenges. First, the goals of accuracy and fairness can sometimes be in tension, and there are no obvious normative guidelines for managing the trade-offs between these two desiderata when they arise. Second, there are many distinct ways of measuring both the accuracy and fairness of a predictive algorithm; here too, there are no obvious guidelines on how to aggregate our preferences for predictive algorithms that satisfy disparate measures of fairness and accuracy to various extents. The goal of this paper is to address these challenges by arguing that there are good reasons for using a linear combination of accuracy and fairness metrics to measure the all-things-considered value of a predictive algorithm for agents who care about both accuracy and fairness. My argument depends crucially on a classic result in the preference aggregation literature due to Harsanyi. After making this formal argument, I apply my result to an analysis of accuracy-fairness trade-offs using the COMPAS dataset compiled by Angwin et al.
- Abstract(参考訳): 世界の状態に関する予測を出力するアルゴリズムは、常に正確な予測を出力するという暗黙的または明示的な目標(つまり、真実である可能性が高い予測)で設計される。
さらに、人工知能の最近の革命によってもたらされた、ますます強力な予測アルゴリズムの台頭は、彼らの予測が体系的にバイアスを排除したり、特定の個人やグループに害を与えないという意味で、公正な予測アルゴリズムの構築に重点を置いている。
この状況は2つの概念的課題を提起する。
まず、正確さと公平性の目標が緊張状態にある場合があり、これら2つのデシダータ間のトレードオフを管理するための明確な規範的ガイドラインが存在しない。
第二に、予測アルゴリズムの正確性と公正性の両方を測定するには、多くの異なる方法がある。
本研究の目的は,精度と公正度の両方を気にするエージェントに対して,予測アルゴリズムのすべてのものを考慮した値を測定するために,精度と公正度を線形に組み合わせることに十分な理由があることを論じて,これらの課題に対処することにある。
私の議論は、Harsanyiによる選好集約文学における古典的な結果に大きく依存しています。
この公式な議論をした後、私はAngwinらによってコンパイルされたCompASデータセットを用いて精度・公正トレードオフの分析に私の結果を適用します。
関連論文リスト
- Performative Prediction on Games and Mechanism Design [69.7933059664256]
エージェントが過去の正確性に基づいて予測を信頼するかを判断する集団リスクジレンマについて検討する。
予測が集合的な結果を形成するにつれて、社会福祉は関心の指標として自然に現れる。
よりよいトレードオフを実現し、それらをメカニズム設計に使用する方法を示します。
論文 参考訳(メタデータ) (2024-08-09T16:03:44Z) - Identifying and Mitigating Social Bias Knowledge in Language Models [52.52955281662332]
個々人の社会的偏見をきめ細かなキャリブレーションを可能にする新しいデバイアス・アプローチであるFairness Stamp(FAST)を提案する。
FASTは最先端のベースラインを超え、デバイアス性能が優れている。
これは、大きな言語モデルにおける公平性を達成するためのきめ細かいデバイアス戦略の可能性を強調している。
論文 参考訳(メタデータ) (2024-08-07T17:14:58Z) - Towards Human-AI Complementarity with Prediction Sets [14.071862670474832]
予測セットに基づく意思決定支援システムは、人間の専門家が分類タスクを解くのに役立つことが証明されている。
共形予測を用いて構築された予測集合は、一般に平均精度の点で準最適であることを示す。
我々は,多種多様な専門家モデルと非最適スコアに対して,同等あるいはより優れた性能を提供する予測セットを見つけることが保証される,欲求的アルゴリズムを導入する。
論文 参考訳(メタデータ) (2024-05-27T18:00:00Z) - A comparative study of conformal prediction methods for valid uncertainty quantification in machine learning [0.0]
論文は、誰もが不確実性に気付いていて、それがどれほど重要か、そしてそれを恐れずにそれをどのように受け入れるか、という世界を探求しようとします。
しかし、正確な不確実性推定を誰でも得るための特定のフレームワークが選別され、分析される。
論文 参考訳(メタデータ) (2024-05-03T13:19:33Z) - Best of Many in Both Worlds: Online Resource Allocation with Predictions under Unknown Arrival Model [16.466711636334587]
オンライン意思決定者は、到着や要求など、将来の変数に関する予測を得ることが多い。
意思決定者にとって予測精度は未知であるため、予測に盲目的に追従することは有害である。
我々は未知の予測精度に頑健な方法で予測を利用するアルゴリズムを開発した。
論文 参考訳(メタデータ) (2024-02-21T04:57:32Z) - Sorting and Hypergraph Orientation under Uncertainty with Predictions [0.45880283710344055]
本研究では,不確実性下でのソートとハイパーグラフ配向のための学習強化アルゴリズムについて検討する。
我々のアルゴリズムは、予測なしで最良となる最悪の保証を維持しつつ、精度の高い予測性能を保証する。
論文 参考訳(メタデータ) (2023-05-16T07:52:08Z) - Robustification of Online Graph Exploration Methods [59.50307752165016]
我々は、古典的で有名なオンライングラフ探索問題の学習強化版について研究する。
本稿では,予測をよく知られたNearest Neighbor(NN)アルゴリズムに自然に統合するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-12-10T10:02:31Z) - Dense Uncertainty Estimation [62.23555922631451]
本稿では,ニューラルネットワークと不確実性推定手法について検討し,正確な決定論的予測と確実性推定の両方を実現する。
本研究では,アンサンブルに基づく手法と生成モデルに基づく手法の2つの不確実性推定法について検討し,それらの長所と短所を,完全/半端/弱度に制御されたフレームワークを用いて説明する。
論文 参考訳(メタデータ) (2021-10-13T01:23:48Z) - Learning to Predict Trustworthiness with Steep Slope Loss [69.40817968905495]
本研究では,現実の大規模データセットにおける信頼性の予測問題について検討する。
我々は、先行技術損失関数で訓練された信頼性予測器が、正しい予測と誤った予測の両方を信頼に値するものとみなす傾向があることを観察する。
そこで我々は,2つのスライド状の曲線による不正確な予測から,特徴w.r.t.正しい予測を分離する,新たな急勾配損失を提案する。
論文 参考訳(メタデータ) (2021-09-30T19:19:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。