論文の概要: Measuring justice in machine learning
- arxiv url: http://arxiv.org/abs/2009.10050v2
- Date: Wed, 30 Sep 2020 16:52:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-01 09:14:04.138418
- Title: Measuring justice in machine learning
- Title(参考訳): 機械学習における正義の測定
- Authors: Alan Lundgard
- Abstract要約: 私たちは、正義と、あるシステムが他のシステムよりも多かれ少なかれ小さいかどうかを区別する方法の両方を知る必要がある。
公正機械学習として知られる分野は、John Rawlsのインスピレーションと運用のための分配的正義の理論に変わった。
能力理論家は長い間、ラウルズの理論は正義の間違った尺度を用いており、それによって障害者に対する偏見を符号化していると論じてきた。
- 参考スコア(独自算出の注目度): 0.7614628596146599
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: How can we build more just machine learning systems? To answer this question,
we need to know both what justice is and how to tell whether one system is more
or less just than another. That is, we need both a definition and a measure of
justice. Theories of distributive justice hold that justice can be measured (in
part) in terms of the fair distribution of benefits and burdens across people
in society. Recently, the field known as fair machine learning has turned to
John Rawls's theory of distributive justice for inspiration and
operationalization. However, philosophers known as capability theorists have
long argued that Rawls's theory uses the wrong measure of justice, thereby
encoding biases against people with disabilities. If these theorists are right,
is it possible to operationalize Rawls's theory in machine learning systems
without also encoding its biases? In this paper, I draw on examples from fair
machine learning to suggest that the answer to this question is no: the
capability theorists' arguments against Rawls's theory carry over into machine
learning systems. But capability theorists don't only argue that Rawls's theory
uses the wrong measure, they also offer an alternative measure. Which measure
of justice is right? And has fair machine learning been using the wrong one?
- Abstract(参考訳): 機械学習システムをもっと作るには、どうすればよいのか?
この質問に答えるためには、正義とは何か、あるシステムが他のシステムよりも多かれ少なかれ小さいのかを知る方法の両方を知る必要がある。
つまり、私たちは定義と正義の尺度の両方が必要です。
分配的正義の理論は、社会の人々間での利益と負担の公平な分配の観点から、正義を(部分的に)測定できるとしている。
近ごろ、fair machine learningとして知られる分野は、john rawls氏の分散的正義の理論にインスピレーションと運用化をもたらした。
しかし、能力理論家として知られる哲学者は、ロールズの理論は間違った正義の尺度を使い、障害者に対する偏見を符号化すると主張した。
これらの理論が正しいならば、そのバイアスを符号化することなく、Rawlsの理論を機械学習システムで運用することは可能だろうか?
本稿では,fair machine learning(fair machine learning)の例から,この問題に対する答えがノーであることを示す。
しかし能力理論家たちは、Rawlsの理論が間違った測度を使っているというだけでなく、別の測度も提供している。
どの正義の尺度が正しいか?
fair machine learningは間違ったものを使っているのだろうか?
関連論文リスト
- What's Distributive Justice Got to Do with It? Rethinking Algorithmic Fairness from the Perspective of Approximate Justice [1.8434042562191815]
不完全な意思決定システムという文脈では、個人間での利益/利益の理想的な分配がどのようなものになるかだけを気にすべきではない、と私たちは主張する。
このためには、アルゴリズムフェアネス研究者として、分配的正義を見極め、公正性基準を使用する方法を再考する必要がある。
論文 参考訳(メタデータ) (2024-07-17T11:13:23Z) - Navigating Fairness Measures and Trade-Offs [0.0]
私は、Rawlsの公正性の概念をフェアネスとして利用することで、公正性対策と正確なトレードオフをナビゲートするための基盤を作ることができることを示します。
これはまた、分配的正義の哲学的説明と公正文学の間のギャップを埋めるのにも役立っている。
論文 参考訳(メタデータ) (2023-07-17T13:45:47Z) - Machine Learning with Probabilistic Law Discovery: A Concise
Introduction [77.34726150561087]
Probabilistic Law Discovery (PLD) は、確率論的ルール学習の変種を実装した論理ベースの機械学習手法である。
PLDはDecision Tree/Random Forestメソッドに近いが、関連するルールの定義方法に大きく異なる。
本稿はPLDの主な原則を概説し、その利点と限界を強調し、いくつかのアプリケーションガイドラインを提供する。
論文 参考訳(メタデータ) (2022-12-22T17:40:13Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Fairness and Randomness in Machine Learning: Statistical Independence
and Relativization [10.482805367361818]
我々は、機械学習で日常的に使われている公平性とランダム性の概念における統計的独立性の役割を識別する。
我々は、ランダム性と公正性は、機械学習におけるモデリング仮定として、その性質を反映すべきであると主張している。
論文 参考訳(メタデータ) (2022-07-27T15:55:05Z) - How Robust is Your Fairness? Evaluating and Sustaining Fairness under
Unseen Distribution Shifts [107.72786199113183]
CUMA(CUrvature Matching)と呼ばれる新しいフェアネス学習手法を提案する。
CUMAは、未知の分布シフトを持つ未知の領域に一般化可能な頑健な公正性を達成する。
提案手法を3つの人気フェアネスデータセットで評価する。
論文 参考訳(メタデータ) (2022-07-04T02:37:50Z) - Are There Exceptions to Goodhart's Law? On the Moral Justification of Fairness-Aware Machine Learning [14.428360876120333]
公正度対策はグッドハートの法則に特に敏感であると主張する。
公正度尺度の正当性に関する道徳的推論の枠組みを提示する。
論文 参考訳(メタデータ) (2022-02-17T09:26:39Z) - The zoo of Fairness metrics in Machine Learning [62.997667081978825]
近年,機械学習(ML)と自動意思決定における公平性の問題が注目されている。
MLにおける公平性の定義の多様さが提案され、人口の個人に影響を与える状況において「公正な決定」とは何かという異なる概念が検討されている。
本研究では、この定義の動物園からある程度の順序付けを試みる。
論文 参考訳(メタデータ) (2021-06-01T13:19:30Z) - Inductive Biases for Deep Learning of Higher-Level Cognition [108.89281493851358]
興味深い仮説は、人間と動物の知性はいくつかの原則によって説明できるということである。
この研究は、主に高いレベルとシーケンシャルな意識的処理に関心のある人を中心に、より大きなリストを考察する。
これらの特定の原則を明確にする目的は、人間の能力から恩恵を受けるAIシステムを構築するのに役立つ可能性があることである。
論文 参考訳(メタデータ) (2020-11-30T18:29:25Z) - Machine Learning Fairness in Justice Systems: Base Rates, False
Positives, and False Negatives [0.0]
フェアネスが実際にどのように達成されるかについては、ほとんどガイダンスがない。
本稿では、ある人種集団に対して偽陽性率の高い結果と、別の人種集団に対して偽陰性率が高い結果について考察する。
論文 参考訳(メタデータ) (2020-08-05T16:31:40Z) - Two Simple Ways to Learn Individual Fairness Metrics from Data [47.6390279192406]
個人的公正はアルゴリズム的公正の直感的な定義であり、グループ的公正の欠点のいくつかに対処する。
多くのMLタスクに対して広く受け入れられている公正な基準が欠如していることが、個人の公正を広く採用する大きな障壁である。
学習した指標による公正なトレーニングが、性別や人種的偏見に影響を受けやすい3つの機械学習タスクの公平性を改善することを実証的に示す。
論文 参考訳(メタデータ) (2020-06-19T23:47:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。