論文の概要: Subjective fairness in algorithmic decision-support
- arxiv url: http://arxiv.org/abs/2407.01617v1
- Date: Fri, 28 Jun 2024 14:37:39 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-03 20:02:00.753614
- Title: Subjective fairness in algorithmic decision-support
- Title(参考訳): アルゴリズムによる意思決定支援における主観的公平性
- Authors: Sarra Tajouri, Alexis Tsoukiàs,
- Abstract要約: 意思決定文学におけるフェアネスの扱いは、通常客観的な尺度を用いてフェアネスを定量化する。
この研究は、社会学的洞察を用いて、これらのアプローチの限界を強調するために批判的なスタンスを取る。
我々は、トップダウンからボトムアップアプローチに移行する主観的特性として公正を再定義する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The treatment of fairness in decision-making literature usually involves quantifying fairness using objective measures. This work takes a critical stance to highlight the limitations of these approaches (group fairness and individual fairness) using sociological insights. First, we expose how these metrics often fail to reflect societal realities. By neglecting crucial historical, cultural, and social factors, they fall short of capturing all discriminatory practices. Second, we redefine fairness as a subjective property moving from a top-down to a bottom-up approach. This shift allows the inclusion of diverse stakeholders perceptions, recognizing that fairness is not merely about objective metrics but also about individuals views on their treatment. Finally, we aim to use explanations as a mean to achieve fairness. Our approach employs explainable clustering to form groups based on individuals subjective perceptions to ensure that individuals who see themselves as similar receive similar treatment. We emphasize the role of explanations in achieving fairness, focusing not only on procedural fairness but also on providing subjective explanations to convince stakeholders of their fair treatment.
- Abstract(参考訳): 意思決定文学におけるフェアネスの扱いは、通常客観的な尺度を用いてフェアネスを定量化する。
この研究は、社会学的洞察を用いて、これらのアプローチの限界(グループフェアネスと個人フェアネス)を強調するために批判的なスタンスを取る。
まず、これらの指標が社会的現実を反映しない場合が多いことを明らかにする。
重要な歴史的、文化的、社会的要因を無視することで、すべての差別的慣行を捉えられない。
第2に、トップダウンからボトムアップアプローチに移行する主観的特性として公正を再定義する。
このシフトは、多様な利害関係者の認識を取り入れることを可能にし、公平さは客観的なメトリクスだけでなく、治療に対する個人的見解にも関係している、と認識する。
最後に、公平性を達成するための手段として、説明を使用することを目標としています。
このアプローチでは、説明可能なクラスタリングを用いて、個人を主観的知覚に基づいてグループを形成し、自分自身を類似していると見なす個人が同様の治療を受けられるようにしている。
我々は、公正を達成するための説明の役割を強調し、手続き的公正だけでなく、利害関係者に公平な扱いを納得させるために主観的な説明を提供することにも焦点をあてる。
関連論文リスト
- Evaluating the Fairness of Discriminative Foundation Models in Computer
Vision [51.176061115977774]
本稿では,CLIP (Contrastive Language-Pretraining) などの差別基盤モデルのバイアス評価のための新しい分類法を提案する。
そして、これらのモデルにおけるバイアスを緩和するための既存の手法を分類学に関して体系的に評価する。
具体的には,ゼロショット分類,画像検索,画像キャプションなど,OpenAIのCLIPとOpenCLIPモデルをキーアプリケーションとして評価する。
論文 参考訳(メタデータ) (2023-10-18T10:32:39Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - On Disentangled and Locally Fair Representations [95.6635227371479]
人種や性別などのセンシティブなグループに対して公平な方法で分類を行うという課題について検討する。
局所的公正表現を学習し、学習された表現の下で、各サンプルの近傍は感度特性の観点からバランスをとる。
論文 参考訳(メタデータ) (2022-05-05T14:26:50Z) - Gerrymandering Individual Fairness [0.0]
個人の公平さは、サブグループレベルでの個人の不公平な扱いを防ぐための公平さの尺度である。
本研究の目的は,個々人のフェアネスそのものをジェリーマンダーできる範囲を探求することである。
論文 参考訳(メタデータ) (2022-04-25T12:44:57Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - A Systematic Approach to Group Fairness in Automated Decision Making [0.0]
本論文の目的は,データ科学者に対して,グループフェアネス指標の紹介を提供することである。
我々は、公正な言明をするために、社会デマログラフィーグループをどの感覚で比較するかを考えることでこれを行おうとする。
論文 参考訳(メタデータ) (2021-09-09T12:47:15Z) - On the Fairness of Causal Algorithmic Recourse [36.519629650529666]
グループレベルでの公平度基準と個人レベルでの公平度基準を提案する。
ここでは,会話の公平さは予測の公平さと相補的であることを示す。
本稿では, 社会的介入によって, データ生成プロセスの公正性違反に対処できるかどうかを論じる。
論文 参考訳(メタデータ) (2020-10-13T16:35:06Z) - Two Simple Ways to Learn Individual Fairness Metrics from Data [47.6390279192406]
個人的公正はアルゴリズム的公正の直感的な定義であり、グループ的公正の欠点のいくつかに対処する。
多くのMLタスクに対して広く受け入れられている公正な基準が欠如していることが、個人の公正を広く採用する大きな障壁である。
学習した指標による公正なトレーニングが、性別や人種的偏見に影響を受けやすい3つの機械学習タスクの公平性を改善することを実証的に示す。
論文 参考訳(メタデータ) (2020-06-19T23:47:15Z) - Principal Fairness for Human and Algorithmic Decision-Making [1.2691047660244335]
我々は、人間とアルゴリズムによる意思決定のために、主公正と呼ばれる新しい公正の概念を導入する。
既存の統計的公正の定義とは異なり、主公正性は個人が決定に影響を及ぼすことができるという事実をはっきりと説明している。
論文 参考訳(メタデータ) (2020-05-21T00:24:54Z) - Statistical Equity: A Fairness Classification Objective [6.174903055136084]
エクイティの原則によって動機付けられた新しい公平性の定義を提案する。
フェアネスの定義を形式化し、適切な文脈でモチベーションを与えます。
我々は、定義の有効性を示すために、複数の自動評価と人的評価を行う。
論文 参考訳(メタデータ) (2020-05-14T23:19:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。