論文の概要: Effort-aware Fairness: Incorporating a Philosophy-informed, Human-centered Notion of Effort into Algorithmic Fairness Metrics
- arxiv url: http://arxiv.org/abs/2505.19317v1
- Date: Sun, 25 May 2025 21:07:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-27 16:58:43.051255
- Title: Effort-aware Fairness: Incorporating a Philosophy-informed, Human-centered Notion of Effort into Algorithmic Fairness Metrics
- Title(参考訳): Effort-Aware Fairness:Human-Cented Notion of Effort into Algorithmic Fairness Metrics
- Authors: Tin Nguyen, Jiannan Xu, Zora Che, Phuong-Anh Nguyen-Le, Rushil Dandamudi, Donald Braman, Furong Huang, Hal Daumé III, Zubin Jelveh,
- Abstract要約: 本稿では,「力」の概念を基礎として,Effort-aware Fairness(EaF)を概念化し,評価する哲学的インフォームド手法を提案する。
私たちの研究は、AIモデル監査官が改善に多大な努力を払っているが、制御外の体系的・初期的不利益に悩まされている個人に対して、不公平な判断を解明し、修正する可能性を秘めることができるかもしれない。
- 参考スコア(独自算出の注目度): 31.02504368168753
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Although popularized AI fairness metrics, e.g., demographic parity, have uncovered bias in AI-assisted decision-making outcomes, they do not consider how much effort one has spent to get to where one is today in the input feature space. However, the notion of effort is important in how Philosophy and humans understand fairness. We propose a philosophy-informed way to conceptualize and evaluate Effort-aware Fairness (EaF) based on the concept of Force, or temporal trajectory of predictive features coupled with inertia. In addition to our theoretical formulation of EaF metrics, our empirical contributions include: 1/ a pre-registered human subjects experiment, which demonstrates that for both stages of the (individual) fairness evaluation process, people consider the temporal trajectory of a predictive feature more than its aggregate value; 2/ pipelines to compute Effort-aware Individual/Group Fairness in the criminal justice and personal finance contexts. Our work may enable AI model auditors to uncover and potentially correct unfair decisions against individuals who spent significant efforts to improve but are still stuck with systemic/early-life disadvantages outside their control.
- Abstract(参考訳): 一般的なAI公正度指標、例えば人口統計値は、AIが支援する意思決定結果のバイアスを明らかにしているが、入力機能領域に現在ある場所に到達するのにどれだけの労力が費やされたかは考慮していない。
しかし、努力の概念は、哲学と人間がどのように公正を理解するかにおいて重要である。
本研究では、力の概念や慣性を伴う予測的特徴の時間的軌跡に基づいて、Effort-aware Fairness(EaF)を概念化し評価する哲学的インフォームド手法を提案する。
EaFメトリクスの理論的定式化に加えて、我々の経験的貢献には、1/事前登録された人体実験があり、これは、個人的(個人的)公正評価プロセスの両段階において、人々は、その集計値以上の予測的特徴の時間的軌跡を考慮し、刑事司法と個人金融の文脈において、Effort-aware individual/Group Fairnessを計算するパイプラインである。
私たちの研究は、AIモデル監査官が改善に多大な努力を払っているが、制御外の体系的・初期的不利益に悩まされている個人に対して、不公平な判断を解明し、修正する可能性を秘めることができるかもしれない。
関連論文リスト
- What Hides behind Unfairness? Exploring Dynamics Fairness in Reinforcement Learning [52.51430732904994]
強化学習問題では、エージェントはリターンを最大化しながら長期的な公正性を考慮する必要がある。
近年の研究では様々なフェアネスの概念が提案されているが、RL問題における不公平性がどのように生じるかは定かではない。
我々は、環境力学から生じる不平等を明示的に捉える、ダイナミックスフェアネスという新しい概念を導入する。
論文 参考訳(メタデータ) (2024-04-16T22:47:59Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - Towards Fair and Explainable AI using a Human-Centered AI Approach [5.888646114353372]
分類システムと単語埋め込みにおける説明可能性と公平性の向上を目的とした5つの研究プロジェクトについて述べる。
最初のプロジェクトは、ローカルモデル説明を機械教師のインタフェースとして導入するユーティリティ/ダウンサイドについて検討する。
第二のプロジェクトは、因果性に基づくヒューマン・イン・ザ・ループ視覚ツールであるD-BIASを紹介し、データセットの社会的バイアスを特定し緩和する。
第3のプロジェクトは、グループに対するバイアスに対するトレーニング済みの静的単語埋め込みの監査を支援する、ビジュアルインタラクティブツールであるWordBiasを提示する。
4番目のプロジェクトは、ソーシャルを識別するビジュアル分析ツールDramatVis Personae
論文 参考訳(メタデータ) (2023-06-12T21:08:55Z) - The Flawed Foundations of Fair Machine Learning [0.0]
統計的に正確な結果と類似した結果とのトレードオフが存在することを示す。
本稿では,統計的に正確な結果とグループ類似の結果の関係を理解する上で,研究者やデザイナーを支援するための概念実証手法を提案する。
論文 参考訳(メタデータ) (2023-06-02T10:07:12Z) - Identifying, measuring, and mitigating individual unfairness for
supervised learning models and application to credit risk models [3.818578543491318]
AIソリューションにおける個人の不公平性を識別し緩和することに注力する。
また,グループフェアネスを達成するために,個人フェアネスを達成する技術が有効である範囲についても検討した。
個々の不公平性軽減技術に対応する実験結果が提示される。
論文 参考訳(メタデータ) (2022-11-11T10:20:46Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Understanding Relations Between Perception of Fairness and Trust in
Algorithmic Decision Making [8.795591344648294]
本研究の目的は,人間における帰納的アルゴリズムの公平さと知覚の関係を理解することである。
また,アルゴリズムの公平性が,アルゴリズム決定におけるユーザの信頼にどのように影響するかについても検討する。
論文 参考訳(メタデータ) (2021-09-29T11:00:39Z) - Statistical Equity: A Fairness Classification Objective [6.174903055136084]
エクイティの原則によって動機付けられた新しい公平性の定義を提案する。
フェアネスの定義を形式化し、適切な文脈でモチベーションを与えます。
我々は、定義の有効性を示すために、複数の自動評価と人的評価を行う。
論文 参考訳(メタデータ) (2020-05-14T23:19:38Z) - On Consequentialism and Fairness [64.35872952140677]
機械学習におけるフェアネスの共通定義について、逐次的批判を行う。
学習とランダム化の問題に関するより広範な議論で締めくくります。
論文 参考訳(メタデータ) (2020-01-02T05:39:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。