論文の概要: The Limits of Computation in Solving Equity Trade-Offs in Machine
Learning and Justice System Risk Assessment
- arxiv url: http://arxiv.org/abs/2102.04342v1
- Date: Mon, 8 Feb 2021 16:46:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-09 15:50:04.487638
- Title: The Limits of Computation in Solving Equity Trade-Offs in Machine
Learning and Justice System Risk Assessment
- Title(参考訳): 機械学習と正義システムリスク評価におけるエクイティトレードオフ解決における計算限界
- Authors: Jesse Russell
- Abstract要約: 本稿では、機械学習における人種的平等の考え方の違い、特に司法設定において、計算的に解くのが難しいトレードオフをいかに提示するかを考察する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This paper explores how different ideas of racial equity in machine learning,
in justice settings in particular, can present trade-offs that are difficult to
solve computationally. Machine learning is often used in justice settings to
create risk assessments, which are used to determine interventions, resources,
and punitive actions. Overall aspects and performance of these machine
learning-based tools, such as distributions of scores, outcome rates by levels,
and the frequency of false positives and true positives, can be problematic
when examined by racial group. Models that produce different distributions of
scores or produce a different relationship between level and outcome are
problematic when those scores and levels are directly linked to the restriction
of individual liberty and to the broader context of racial inequity. While
computation can help highlight these aspects, data and computation are unlikely
to solve them. This paper explores where values and mission might have to fill
the spaces computation leaves.
- Abstract(参考訳): 本稿では、機械学習における人種的平等の考え方の違い、特に司法設定において、計算的に解くのが難しいトレードオフをいかに提示するかを考察する。
機械学習は、しばしば正義の設定でリスクアセスメントを作成するために使用され、介入、リソース、懲罰的行動を決定するために使用される。
これらの機械学習ベースのツールの全体的な側面とパフォーマンス、例えばスコアの分布、レベルごとの結果率、偽陽性と真陽性の頻度は、人種グループによって調べられると問題となる。
スコアの異なる分布を生成したり、レベルと結果の異なる関係を生成するモデルは、それらのスコアとレベルが個々の自由の制限とより広い人種的不平等の文脈に直接関連している場合に問題となる。
計算はこれらの側面を強調するのに役立つが、データと計算はそれらを解決する可能性は低い。
本稿では,空間計算が残すべき値とミッションについて検討する。
関連論文リスト
- The Role of Relevance in Fair Ranking [1.5469452301122177]
妥当性スコアは、公正な介入を導くために、望ましい基準のセットを満たすべきであると論じる。
次に、偏りのあるユーザクリックデータから推定される関連性のケーススタディにおいて、これらの基準がすべて満たされているわけではないことを実証的に示す。
分析と結果から,関連収集・生成への新たなアプローチの必要性が浮き彫りになっている。
論文 参考訳(メタデータ) (2023-05-09T16:58:23Z) - Fairness meets Cross-Domain Learning: a new perspective on Models and
Metrics [80.07271410743806]
クロスドメイン学習(CD)とモデルフェアネスの関係について検討する。
いくつかの人口集団にまたがる顔画像と医療画像のベンチマークと、分類とローカライゼーションタスクについて紹介する。
本研究は,3つの最先端フェアネスアルゴリズムとともに,14のCDアプローチをカバーし,前者が後者に勝ることを示す。
論文 参考訳(メタデータ) (2023-03-25T09:34:05Z) - Fairness in Contextual Resource Allocation Systems: Metrics and
Incompatibility Results [7.705334602362225]
本研究は、住宅を提供するホームレスサービスなど、基本的なニーズを満たすため、不足する資源を割り当てるシステムについて研究する。
これらの制度は、しばしば、体系的な人種、性別、その他の不正によって不当に影響を受けるコミュニティをサポートする。
本稿では,機械学習における公平度指標に触発された文脈的資源配分システムにおける公平性を評価するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2022-12-04T02:30:58Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Fair Machine Learning in Healthcare: A Review [90.22219142430146]
我々は、機械学習と医療格差における公正性の交差を分析する。
機械学習の観点から、関連する公正度メトリクスを批判的にレビューする。
本稿では,医療における倫理的かつ公平なMLアプリケーション開発を約束する新たな研究指針を提案する。
論文 参考訳(メタデータ) (2022-06-29T04:32:10Z) - Fair Group-Shared Representations with Normalizing Flows [68.29997072804537]
本研究では,異なるグループに属する個人を1つのグループにマッピングできる公正表現学習アルゴリズムを開発した。
提案手法は,他の公正表現学習アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T10:49:49Z) - Towards a Fairness-Aware Scoring System for Algorithmic Decision-Making [35.21763166288736]
本稿では,データ駆動型フェアネス対応スコアリングシステムを構築するための一般的なフレームワークを提案する。
提案するフレームワークは,実践者や政策立案者に対して,希望する公正性要件を選択するための柔軟性を提供する。
論文 参考訳(メタデータ) (2021-09-21T09:46:35Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Machine Learning Fairness in Justice Systems: Base Rates, False
Positives, and False Negatives [0.0]
フェアネスが実際にどのように達成されるかについては、ほとんどガイダンスがない。
本稿では、ある人種集団に対して偽陽性率の高い結果と、別の人種集団に対して偽陰性率が高い結果について考察する。
論文 参考訳(メタデータ) (2020-08-05T16:31:40Z) - Fast Fair Regression via Efficient Approximations of Mutual Information [0.0]
本稿では, 回帰モデルに対する独立性, 分離性, 充足性グループフェアネス基準の高速な近似について紹介する。
正規化リスク最小化フレームワーク内で公正性を強制するために、正規化のような近似を使用する。
実世界のデータセットでの実験では、計算効率が優れているにもかかわらず、我々のアルゴリズムは依然として最先端の精度/フェアネスのトレードオフを示す。
論文 参考訳(メタデータ) (2020-02-14T08:50:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。