論文の概要: Legally grounded fairness objectives
- arxiv url: http://arxiv.org/abs/2009.11677v1
- Date: Thu, 24 Sep 2020 13:30:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-15 04:31:38.364820
- Title: Legally grounded fairness objectives
- Title(参考訳): 法的根拠のある公正目標
- Authors: Dylan Holden-Sim and Gavin Leech and Laurence Aitchison
- Abstract要約: 我々は法制度からの信号を用いて、特定の不公平度の社会的コストを任意に測定する。
LGFOを計算するのに必要な2つの量、公正度対策に関する裁判所の好み、および予想される損害は、不明だが明確に定義されている。
- 参考スコア(独自算出の注目度): 29.436464740855598
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent work has identified a number of formally incompatible operational
measures for the unfairness of a machine learning (ML) system. As these
measures all capture intuitively desirable aspects of a fair system, choosing
"the one true" measure is not possible, and instead a reasonable approach is to
minimize a weighted combination of measures. However, this simply raises the
question of how to choose the weights. Here, we formulate Legally Grounded
Fairness Objectives (LGFO), which uses signals from the legal system to
non-arbitrarily measure the social cost of a specific degree of unfairness. The
LGFO is the expected damages under a putative lawsuit that might be awarded to
those who were wrongly classified, in the sense that the ML system made a
decision different to that which would have be made under the court's preferred
measure. Notably, the two quantities necessary to compute the LGFO, the court's
preferences about fairness measures, and the expected damages, are unknown but
well-defined, and can be estimated by legal advice. Further, as the damages
awarded by the legal system are designed to measure and compensate for the harm
caused to an individual by an unfair classification, the LGFO aligns closely
with society's estimate of the social cost.
- Abstract(参考訳): 近年の研究では、機械学習(ml)システムの不公平性に関する、形式的非互換な運用措置が多数特定されている。
これらの測度はすべて、公正なシステムの直感的に望ましい側面を捉えるため、"1つの真"測度を選択することは不可能であり、代わりに適切なアプローチは、重み付けされた測度の組み合わせを最小限にすることである。
しかし、これは単に重みをどうやって選ぶかという問題を引き起こす。
ここでは、法体系からの信号を用いて特定の不公平度の社会的コストを任意に測定する法定公正目的法(LGFO)を定式化する。
LGFOは、不正に分類された者に対して、裁判所の望ましい措置の下でなされるであろうものと異なる判断を下すという意味で、強制訴訟による損害が予想されるものである。
特に、lgfoの計算に必要な2つの量、公正な措置に対する裁判所の選好、および予想される損害は、不明であるが明確に定義されており、法的助言によって推定することができる。
さらに、法制度が与える損害は、個人に対する不公平な分類による損害を計測し補償するように設計されているため、lgfoは社会の社会費用の推定と密接に一致している。
関連論文リスト
- Fairness-Accuracy Trade-Offs: A Causal Perspective [58.06306331390586]
我々は、初めて因果レンズから公正性と正確性の間の張力を分析する。
因果的制約を強制することは、しばしば人口集団間の格差を減少させることを示す。
因果制約付きフェアラーニングのための新しいニューラルアプローチを導入する。
論文 参考訳(メタデータ) (2024-05-24T11:19:52Z) - Navigating Fairness Measures and Trade-Offs [0.0]
私は、Rawlsの公正性の概念をフェアネスとして利用することで、公正性対策と正確なトレードオフをナビゲートするための基盤を作ることができることを示します。
これはまた、分配的正義の哲学的説明と公正文学の間のギャップを埋めるのにも役立っている。
論文 参考訳(メタデータ) (2023-07-17T13:45:47Z) - Causal Fairness for Outcome Control [68.12191782657437]
本稿では,自動システムにおいて,公平かつ公平な結果変数を最適化することを目的とした,結果制御と呼ばれる特定の意思決定タスクについて検討する。
本稿では、まず因果レンズを通して利益の概念を分析し、特定の個人が肯定的な決定によってどれだけの利益を得られるかを明らかにする。
次に、保護された属性の影響を受けている可能性があることに留意し、これを分析するために使用できる因果的ツールを提案する。
論文 参考訳(メタデータ) (2023-06-08T09:31:18Z) - Fair Machine Learning in Healthcare: A Review [90.22219142430146]
我々は、機械学習と医療格差における公正性の交差を分析する。
機械学習の観点から、関連する公正度メトリクスを批判的にレビューする。
本稿では,医療における倫理的かつ公平なMLアプリケーション開発を約束する新たな研究指針を提案する。
論文 参考訳(メタデータ) (2022-06-29T04:32:10Z) - What Is Fairness? On the Role of Protected Attributes and Fictitious Worlds [8.223468651994352]
フェアネス対応機械学習(fairML)における文献の増大は、自動意思決定(ADM)における機械学習(ML)に関連する不公平性を緩和することを目的としている。
しかしながら、フェアネスの概念の根底にある概念は、何世紀にもわたって哲学的な議論と、MLコミュニティにおけるこの概念の最近の採用との間に大きなギャップを残している、ほとんど議論されない。
公平性という一貫した概念を定式化し、哲学的考察をADMシステムにおけるMLモデルのトレーニングと評価のための形式的枠組みに変換することにより、このギャップを埋めようとしている。
論文 参考訳(メタデータ) (2022-05-19T15:37:26Z) - Are There Exceptions to Goodhart's Law? On the Moral Justification of Fairness-Aware Machine Learning [14.428360876120333]
公正度対策はグッドハートの法則に特に敏感であると主張する。
公正度尺度の正当性に関する道徳的推論の枠組みを提示する。
論文 参考訳(メタデータ) (2022-02-17T09:26:39Z) - Fair AutoML [18.451193430486175]
我々は、予測精度だけでなく、公正な機械学習モデルを見つけるために、エンドツーエンドの自動機械学習システムを提案する。
システムは、予測精度、公平性、およびフライ時の資源消費に応じて、いつ、どのモデルが不公平を緩和するかを動的に決定する戦略を含む。
論文 参考訳(メタデータ) (2021-11-11T23:08:34Z) - Equality before the Law: Legal Judgment Consistency Analysis for
Fairness [55.91612739713396]
本論文では,LInCo(Legal Inconsistency Coefficient)の判定不整合性評価指標を提案する。
法的な判断予測(LJP)モデルを用いて異なる集団の裁判官をシミュレートし、異なる集団で訓練されたLJPモデルによる判断結果の不一致を判断する。
私達はLInCoを実際の場合の不一致を探検するために使用し、次の観察に来ます:(1)地域およびジェンダーの不一致は法制度でありますが、ジェンダーの不一致は地方不一致より大いにより少しです。
論文 参考訳(メタデータ) (2021-03-25T14:28:00Z) - Improving Fairness in Criminal Justice Algorithmic Risk Assessments
Using Conformal Prediction Sets [0.0]
我々は、リスクアルゴリズムから不公平を取り除くために、共形予測セットからフレームワークを採用する。
30,000人の犯罪者のアライメントのサンプルから、混乱テーブルと、その導出した公正度尺度を構築した。
我々は、我々の研究を、幅広い刑事司法判断に応用するための概念の実証と見なしている。
論文 参考訳(メタデータ) (2020-08-26T16:47:02Z) - Discrimination of POVMs with rank-one effects [62.997667081978825]
この研究は、ランクワン効果を持つ正の作用素値測度を識別する問題に関する洞察を与える。
パラレルとアダプティブの2つの予測手法を比較した。
この適応型スキームを見つけるための明示的なアルゴリズムを提供する。
論文 参考訳(メタデータ) (2020-02-13T11:34:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。