論文の概要: Walk a Mile in Their Shoes: a New Fairness Criterion for Machine
Learning
- arxiv url: http://arxiv.org/abs/2210.06680v1
- Date: Thu, 13 Oct 2022 02:29:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-14 17:37:22.788525
- Title: Walk a Mile in Their Shoes: a New Fairness Criterion for Machine
Learning
- Title(参考訳): 靴の中を1マイル歩く - 機械学習のための新しい公平性基準
- Authors: Norman Matloff
- Abstract要約: 特定の白人受刑者が黒人であるかどうかを尋ねる代わりに、その概念を集団全体に当てはめる。
問題をフレーム化し、異なるデータセットに対して経験的に研究します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The old empathetic adage, ``Walk a mile in their shoes,'' asks that one
imagine the difficulties others may face. This suggests a new ML counterfactual
fairness criterion, based on a \textit{group} level: How would members of a
nonprotected group fare if their group were subject to conditions in some
protected group? Instead of asking what sentence would a particular Caucasian
convict receive if he were Black, take that notion to entire groups; e.g. how
would the average sentence for all White convicts change if they were Black,
but with their same White characteristics, e.g. same number of prior
convictions? We frame the problem and study it empirically, for different
datasets. Our approach also is a solution to the problem of covariate
correlation with sensitive attributes.
- Abstract(参考訳): 古い共感的アドアージ「'Walk a mile in their shoes'」は、他の人が直面する困難を想像するように求めている。
これは、 \textit{group}のレベルに基づいて、新しいml反事実的公正基準を示唆している。
例えば、白人受刑者の平均文は、もし黒人であるならばどのように変わるのか、例えば、同じ白人的特徴(例えば、同じ数の事前有罪判決)を持つのか?
問題をフレーム化し、異なるデータセットに対して経験的に研究します。
我々のアプローチは、感度特性と共変量相関の問題に対する解決策でもある。
関連論文リスト
- Intersectional Fairness: A Fractal Approach [0.0]
幾何学的設定における交叉フェアネスの問題について考察する。
数学的には、公平さはレベルを"ダウン"するわけではないが、レベルを"アップ"する。
公平性は比喩的に「フラクタル」問題と考えることができる。
論文 参考訳(メタデータ) (2023-02-24T15:15:32Z) - Within-group fairness: A guidance for more sound between-group fairness [1.675857332621569]
我々は、いわゆる「内集団公正」という新しいフェアネスの概念を導入する。
グループ内公平度とグループ間公正度を同時に制御する学習アルゴリズムを開発した。
数値解析により,提案した学習アルゴリズムは,グループ間の公正さだけでなく,精度を犠牲にすることなくグループ内公正性を向上することが示された。
論文 参考訳(メタデータ) (2023-01-20T00:39:19Z) - On Disentangled and Locally Fair Representations [95.6635227371479]
人種や性別などのセンシティブなグループに対して公平な方法で分類を行うという課題について検討する。
局所的公正表現を学習し、学習された表現の下で、各サンプルの近傍は感度特性の観点からバランスをとる。
論文 参考訳(メタデータ) (2022-05-05T14:26:50Z) - Fair Group-Shared Representations with Normalizing Flows [68.29997072804537]
本研究では,異なるグループに属する個人を1つのグループにマッピングできる公正表現学習アルゴリズムを開発した。
提案手法は,他の公正表現学習アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T10:49:49Z) - Fairness for Image Generation with Uncertain Sensitive Attributes [97.81354305427871]
この研究は、画像超解像のような生成手順の文脈における公平性の問題に取り組む。
伝統的群フェアネスの定義は通常、指定された保護された群に関して定義されるが、本質的な真偽は存在しないことを強調する。
人口比率の自然拡大はグループ化に強く依存しており、明白に達成可能であることを示す。
論文 参考訳(メタデータ) (2021-06-23T06:17:17Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - One Label, One Billion Faces: Usage and Consistency of Racial Categories
in Computer Vision [75.82110684355979]
顔画像の分類的人種ラベルを提供するコンピュータビジョンデータセットによって符号化された人種システムについて検討する。
各データセットは、名目上等価な人種分類にもかかわらず、かなりユニークな人種体系をコードしている。
我々は、人種的カテゴリーがステレオタイプを符号化し、非整合性からステレオタイプへの分類から民族集団を除外する証拠を見出した。
論文 参考訳(メタデータ) (2021-02-03T22:50:04Z) - Machine Learning Fairness in Justice Systems: Base Rates, False
Positives, and False Negatives [0.0]
フェアネスが実際にどのように達成されるかについては、ほとんどガイダンスがない。
本稿では、ある人種集団に対して偽陽性率の高い結果と、別の人種集団に対して偽陰性率が高い結果について考察する。
論文 参考訳(メタデータ) (2020-08-05T16:31:40Z) - Contrastive Examples for Addressing the Tyranny of the Majority [83.93825214500131]
我々は,グループメンバーシップを介在する,オリジナルのデータセットと新たなデータポイントからなるバランスの取れたトレーニングデータセットを作成することを提案する。
コントラッシブ・サンプル(英語版)と呼ばれるこれらのデータポイントを学習するための強力なツールとして、現在の生成的敵ネットワークが重要であることを示す。
論文 参考訳(メタデータ) (2020-04-14T14:06:44Z) - Fair Prediction with Endogenous Behavior [14.004287903552534]
刑事司法を例として,社会が投獄規則を選択するモデルについて検討する。
その結果,グループ間でのI型とII型エラーの等化は,犯罪率の最小化という目標と一致していることがわかった。
論文 参考訳(メタデータ) (2020-02-18T16:07:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。