論文の概要: A Novel Approach to Fairness in Automated Decision-Making using
Affective Normalization
- arxiv url: http://arxiv.org/abs/2205.00819v1
- Date: Mon, 2 May 2022 11:48:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-03 16:07:01.119767
- Title: A Novel Approach to Fairness in Automated Decision-Making using
Affective Normalization
- Title(参考訳): Affective Normalization を用いた自動意思決定における公正性の新たなアプローチ
- Authors: Jesse Hoey and Gabrielle Chan
- Abstract要約: 本研究では、感情的、社会的に偏りのある成分を測定する方法を提案し、その除去を可能にする。
つまり、意思決定のプロセスを考えると、これらの感情的測定は決定における感情的バイアスを排除し、メソッド自体によって定義されたカテゴリの集合を公平にする。
- 参考スコア(独自算出の注目度): 2.0178765779788495
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Any decision, such as one about who to hire, involves two components. First,
a rational component, i.e., they have a good education, they speak clearly.
Second, an affective component, based on observables such as visual features of
race and gender, and possibly biased by stereotypes. Here we propose a method
for measuring the affective, socially biased, component, thus enabling its
removal. That is, given a decision-making process, these affective measurements
remove the affective bias in the decision, rendering it fair across a set of
categories defined by the method itself. We thus propose that this may solve
three key problems in intersectional fairness: (1) the definition of categories
over which fairness is a consideration; (2) an infinite regress into smaller
and smaller groups; and (3) ensuring a fair distribution based on basic human
rights or other prior information. The primary idea in this paper is that
fairness biases can be measured using affective coherence, and that this can be
used to normalize outcome mappings. We aim for this conceptual work to expose a
novel method for handling fairness problems that uses emotional coherence as an
independent measure of bias that goes beyond statistical parity.
- Abstract(参考訳): 採用する人に関する決定には、2つのコンポーネントが含まれる。
まず、合理的な要素、すなわち、彼らは良い教育を受けており、はっきりと話します。
第二に、人種や性別の視覚的特徴のような可観測性に基づいて、おそらくステレオタイプによって偏りのある情緒成分である。
本稿では,感情的,社会的に偏った成分を計測し,その除去を可能にする方法を提案する。
つまり、意思決定のプロセスを考えると、これらの感情的測定は決定における感情的バイアスを排除し、メソッド自体によって定義されたカテゴリの集合を公平にする。
そこで本稿では,(1)公正性を考慮したカテゴリーの定義,(2)小グループへの無限回帰,(3)基本的人権や事前情報に基づく公平分布の確保,の3つの重要な課題を解決できると考えられる。
本論文の主な考え方は, 感情的コヒーレンスを用いて公平性バイアスを計測し, 結果マッピングの正規化に利用できることである。
本研究の目的は,統計的パリティを超えたバイアスの独立尺度として感情的コヒーレンスを用いた公平性問題を扱う新しい方法を明らかにすることである。
関連論文リスト
- How to be fair? A study of label and selection bias [3.018638214344819]
バイアス付きデータがバイアス付きおよび潜在的に不公平なモデルにつながることは広く受け入れられている。
データにおけるバイアスとモデル予測のためのいくつかの尺度が提案され、バイアス軽減技術が提案されている。
過去10年間に開発された無数の緩和技術にもかかわらず、どの方法が機能するかはいまだに理解されていない。
論文 参考訳(メタデータ) (2024-03-21T10:43:55Z) - Causal Context Connects Counterfactual Fairness to Robust Prediction and
Group Fairness [15.83823345486604]
我々は、公正性と正確性の間に根本的なトレードオフがないことを示すことによって、事実的公正を動機付けます。
対実フェアネスは、比較的単純なグループフェアネスの測定によってテストされることがある。
論文 参考訳(メタデータ) (2023-10-30T16:07:57Z) - Evaluating the Fairness of Discriminative Foundation Models in Computer
Vision [51.176061115977774]
本稿では,CLIP (Contrastive Language-Pretraining) などの差別基盤モデルのバイアス評価のための新しい分類法を提案する。
そして、これらのモデルにおけるバイアスを緩和するための既存の手法を分類学に関して体系的に評価する。
具体的には,ゼロショット分類,画像検索,画像キャプションなど,OpenAIのCLIPとOpenCLIPモデルをキーアプリケーションとして評価する。
論文 参考訳(メタデータ) (2023-10-18T10:32:39Z) - When mitigating bias is unfair: multiplicity and arbitrariness in algorithmic group fairness [8.367620276482056]
本稿では,5次元によるバイアス緩和を評価するFRAME(FaiRness Arbitrariness and Multiplicity Evaluation)フレームワークを紹介する。
FRAMEをキーデータセット全体にわたる様々なバイアス緩和アプローチに適用することにより、デバイアス手法の挙動に顕著な違いを示すことができる。
これらの知見は、現在の公平性基準の限界と、偏見過程における固有の仲裁性を強調している。
論文 参考訳(メタデータ) (2023-02-14T16:53:52Z) - How Robust is Your Fairness? Evaluating and Sustaining Fairness under
Unseen Distribution Shifts [107.72786199113183]
CUMA(CUrvature Matching)と呼ばれる新しいフェアネス学習手法を提案する。
CUMAは、未知の分布シフトを持つ未知の領域に一般化可能な頑健な公正性を達成する。
提案手法を3つの人気フェアネスデータセットで評価する。
論文 参考訳(メタデータ) (2022-07-04T02:37:50Z) - On Disentangled and Locally Fair Representations [95.6635227371479]
人種や性別などのセンシティブなグループに対して公平な方法で分類を行うという課題について検討する。
局所的公正表現を学習し、学習された表現の下で、各サンプルの近傍は感度特性の観点からバランスをとる。
論文 参考訳(メタデータ) (2022-05-05T14:26:50Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Towards Equal Opportunity Fairness through Adversarial Learning [64.45845091719002]
逆行訓練は、自然言語処理におけるバイアス緩和の一般的なアプローチである。
本稿では、よりリッチな特徴を生み出すために、ターゲットクラスをインプットとして利用する、対位訓練のための拡張判別器を提案する。
論文 参考訳(メタデータ) (2022-03-12T02:22:58Z) - Fair Group-Shared Representations with Normalizing Flows [68.29997072804537]
本研究では,異なるグループに属する個人を1つのグループにマッピングできる公正表現学習アルゴリズムを開発した。
提案手法は,他の公正表現学習アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T10:49:49Z) - fairadapt: Causal Reasoning for Fair Data Pre-processing [2.1915057426589746]
因果推論前処理方式を実装したR-package fairadaptについて記述する。
結果に対する感度特性から特定の因果経路が識別できないと仮定する適切な緩和について論じる。
論文 参考訳(メタデータ) (2021-10-19T18:48:28Z) - Bias in Machine Learning Software: Why? How? What to do? [15.525314212209564]
本稿では、バイアスの根本原因が、(a)選択したデータに影響を及ぼす事前決定と、(b)それらの事例に割り当てられたラベルである、と仮定する。
我々のFair-SMOTEアルゴリズムはバイアス付きラベルを除去し、感度特性に基づいて、サンプルが正クラスと負のクラスの両方で等しいような内部分布を再バランスさせる。
論文 参考訳(メタデータ) (2021-05-25T20:15:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。