論文の概要: Designing Equitable Algorithms
- arxiv url: http://arxiv.org/abs/2302.09157v1
- Date: Fri, 17 Feb 2023 22:00:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-21 20:18:24.124532
- Title: Designing Equitable Algorithms
- Title(参考訳): 等価アルゴリズムの設計
- Authors: Alex Chohlas-Wood, Madison Coots, Sharad Goel, Julian Nyarko
- Abstract要約: 現在、予測アルゴリズムは、我々の社会の資源と制裁の大部分を分配するのに使われています。
これらのアルゴリズムは意思決定の効率と公平性を改善することができる。
しかし、彼らは特に人種、民族、性別のラインで格差を拡大し、悪化させる可能性がある。
- 参考スコア(独自算出の注目度): 1.9006392177894293
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Predictive algorithms are now used to help distribute a large share of our
society's resources and sanctions, such as healthcare, loans, criminal
detentions, and tax audits. Under the right circumstances, these algorithms can
improve the efficiency and equity of decision-making. At the same time, there
is a danger that the algorithms themselves could entrench and exacerbate
disparities, particularly along racial, ethnic, and gender lines. To help
ensure their fairness, many researchers suggest that algorithms be subject to
at least one of three constraints: (1) no use of legally protected features,
such as race, ethnicity, and gender; (2) equal rates of "positive" decisions
across groups; and (3) equal error rates across groups. Here we show that these
constraints, while intuitively appealing, often worsen outcomes for individuals
in marginalized groups, and can even leave all groups worse off. The inherent
trade-off we identify between formal fairness constraints and welfare
improvements -- particularly for the marginalized -- highlights the need for a
more robust discussion on what it means for an algorithm to be "fair". We
illustrate these ideas with examples from healthcare and the criminal-legal
system, and make several proposals to help practitioners design more equitable
algorithms.
- Abstract(参考訳): 予測アルゴリズムは今や、医療、ローン、刑事拘留、税務監査など、社会の資源と制裁の大部分を分配するのに使われています。
適切な状況下では、これらのアルゴリズムは意思決定の効率性とエクイティを改善することができる。
同時に、アルゴリズム自体が、特に人種的、民族的、性別的ラインにおいて、格差を強要し、悪化させる危険性がある。
公平性を確保するために、多くの研究者は、アルゴリズムが少なくとも3つの制約のうちの1つ(人種、民族、性別など法的に保護された特徴は使用しない、(2)集団間での「肯定的」決定の平等率、(3)グループ全体のエラー率の等しい)に従うことを提案している。
ここで、これらの制約は直感的にアピールする一方で、限界グループ内の個人にとっての結果を悪化させ、すべてのグループを悪化させる可能性があることを示します。
フォーマルな公平さの制約と福祉改善(特に限界化のために)を区別する固有のトレードオフは、アルゴリズムが「公正」である必要があることに関するより堅牢な議論の必要性を浮き彫りにしている。
医療と刑事司法制度の例でこれらのアイデアを説明し、実践者がより公平なアルゴリズムを設計するためのいくつかの提案を行う。
関連論文リスト
- Intuitions of Compromise: Utilitarianism vs. Contractualism [42.3322948655612]
我々は、社会的な意思決定の文脈において、グループ間での嗜好を集約するためにアルゴリズムを適用するパラダイムを使用している。
現在まで、バリューアグリゲーションに対する支配的なアプローチは実用的だが、私たちは契約者アルゴリズムが推奨するアグリゲーションを強く好んでいることに気付きました。
論文 参考訳(メタデータ) (2024-10-07T21:05:57Z) - Fair Enough? A map of the current limitations of the requirements to have fair algorithms [43.609606707879365]
我々は、社会が自動意思決定システムから要求しているものと、この要求が現実のシナリオで実際に意味しているものとの間には、因果関係があることを論じる。
自動意思決定システムにおける公正性の増大に具体的な意味を与えるため、社会として対応しなければならない重要なオープンポイントの集合を概説する。
論文 参考訳(メタデータ) (2023-11-21T08:44:38Z) - Fairness and Bias in Algorithmic Hiring: a Multidisciplinary Survey [43.463169774689646]
この調査は、システム、バイアス、尺度、緩和戦略、データセット、およびアルゴリズム雇用と公正性の法的側面のバランスよく統合されたカバレッジを持つ実践者や研究者を対象としている。
私たちの仕事は、現在の機会と制限を強調し、すべての利害関係者に対する共有メリットを保証するために、将来の作業に対する推奨を提供することによって、この技術のコンテキスト化された理解とガバナンスを支援します。
論文 参考訳(メタデータ) (2023-09-25T08:04:18Z) - Algorithms, Incentives, and Democracy [0.0]
アルゴリズム設計者による最適分類が集団の行動分布にどのように影響するかを示す。
次に、報酬と罰、または利害関係をアルゴリズム分類に民主化する効果を見て、社会が捕食的分類をいかに生み出すか(または促進するか)を検討する。
論文 参考訳(メタデータ) (2023-07-05T14:22:01Z) - Causal Fairness for Outcome Control [68.12191782657437]
本稿では,自動システムにおいて,公平かつ公平な結果変数を最適化することを目的とした,結果制御と呼ばれる特定の意思決定タスクについて検討する。
本稿では、まず因果レンズを通して利益の概念を分析し、特定の個人が肯定的な決定によってどれだけの利益を得られるかを明らかにする。
次に、保護された属性の影響を受けている可能性があることに留意し、これを分析するために使用できる因果的ツールを提案する。
論文 参考訳(メタデータ) (2023-06-08T09:31:18Z) - Detection of Groups with Biased Representation in Ranking [28.095668425175564]
上位ランクの項目に偏りのある群を検出する問題について検討する。
2つの異なる公正度尺度に対する効率的な探索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-12-30T10:50:02Z) - Nearly Optimal Algorithms for Linear Contextual Bandits with Adversarial
Corruptions [98.75618795470524]
本稿では,敵対的腐敗の存在下での線形文脈的包帯問題について検討する。
我々は不確実性に直面した楽観主義の原理に基づく新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-05-13T17:58:58Z) - Fair Algorithm Design: Fair and Efficacious Machine Scheduling [0.0]
公正なアルゴリズムは低い社会福祉ソリューションをもたらすが、福祉最適化アルゴリズムは非常に不公平である。
本稿では,この二分法が,無視できる量のバイアスを許容すれば克服できることを実証する。
論文 参考訳(メタデータ) (2022-04-13T14:56:22Z) - Learning to be Fair: A Consequentialist Approach to Equitable
Decision-Making [21.152377319502705]
等価なアルゴリズムを設計するための代替フレームワークを提案する。
このアプローチでは、まず第一に、決定の可能な空間よりも利害関係者の選好を導きます。
次に、決定ポリシーの空間を最適化し、提案されたユーティリティを最大化する方法でトレードオフを行います。
論文 参考訳(メタデータ) (2021-09-18T00:30:43Z) - Efficient First-Order Contextual Bandits: Prediction, Allocation, and
Triangular Discrimination [82.52105963476703]
統計的学習、オンライン学習、その他における繰り返しのテーマは、低騒音の問題に対してより速い収束率が可能であることである。
1次保証は統計的およびオンライン学習において比較的よく理解されている。
三角識別と呼ばれる対数損失と情報理論量が一階保証を得る上で基本的な役割を担っていることを示す。
論文 参考訳(メタデータ) (2021-07-05T19:20:34Z) - Pursuing Open-Source Development of Predictive Algorithms: The Case of
Criminal Sentencing Algorithms [0.0]
オープンソースアルゴリズムの開発は、高度に連続した文脈における標準であるべきだと我々は主張する。
これらの問題は、ほぼ全ての広く使われている刑事判決アルゴリズムの、プロプライエタリで高価な性質によって悪化していることを示唆する。
論文 参考訳(メタデータ) (2020-11-12T14:53:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。