論文の概要: A Unifying Human-Centered AI Fairness Framework
- arxiv url: http://arxiv.org/abs/2512.06944v1
- Date: Sun, 07 Dec 2025 17:52:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-09 22:03:54.599878
- Title: A Unifying Human-Centered AI Fairness Framework
- Title(参考訳): 人間中心のAIフェアネスフレームワーク
- Authors: Munshi Mahbubur Rahman, Shimei Pan, James R. Foulds,
- Abstract要約: 8つの異なる公平度指標をカバーする、統一された人間中心の公正度フレームワークを導入する。
このフレームワークは、単一の公正の概念を特権化するのではなく、利害関係者が複数の公正目標に対して重みを割り当てることを可能にする。
重みを調整することで、異なる公平度指標間の微妙なトレードオフが明らかになる。
- 参考スコア(独自算出の注目度): 2.9385229328767988
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The increasing use of Artificial Intelligence (AI) in critical societal domains has amplified concerns about fairness, particularly regarding unequal treatment across sensitive attributes such as race, gender, and socioeconomic status. While there has been substantial work on ensuring AI fairness, navigating trade-offs between competing notions of fairness as well as predictive accuracy remains challenging, creating barriers to the practical deployment of fair AI systems. To address this, we introduce a unifying human-centered fairness framework that systematically covers eight distinct fairness metrics, formed by combining individual and group fairness, infra-marginal and intersectional assumptions, and outcome-based and equality-of-opportunity (EOO) perspectives. This structure allows stakeholders to align fairness interventions with their values and contextual considerations. The framework uses a consistent and easy-to-understand formulation for all metrics to reduce the learning curve for non-experts. Rather than privileging a single fairness notion, the framework enables stakeholders to assign weights across multiple fairness objectives, reflecting their priorities and facilitating multi-stakeholder compromises. We apply this approach to four real-world datasets: the UCI Adult census dataset for income prediction, the COMPAS dataset for criminal recidivism, the German Credit dataset for credit risk assessment, and the MEPS dataset for healthcare utilization. We show that adjusting weights reveals nuanced trade-offs between different fairness metrics. Finally, through case studies in judicial decision-making and healthcare, we demonstrate how the framework can inform practical and value-sensitive deployment of fair AI systems.
- Abstract(参考訳): 重要な社会的領域における人工知能(AI)の利用の増加は、公正性、特に人種、性別、社会経済状態といったセンシティブな属性に対する不平等な扱いに関する懸念を増幅している。
AIの公正性の確保には大きな取り組みがあったが、公正性の競合する概念と予測精度のトレードオフをナビゲートすることは依然として困難であり、公正なAIシステムの実践的な展開に障壁を生じさせている。
そこで本研究では, 個人と集団の公正性, 対外的, 交叉的仮定, 結果に基づく平等性(EOO)の視点を組み合わせた, 8つの異なる公正度指標を体系的に網羅する, 統一された人間中心の公正度フレームワークを提案する。
この構造により、利害関係者は公平な介入を価値や文脈的考慮と整合させることができる。
このフレームワークは、すべてのメトリクスに対して一貫した、理解しやすい定式化を使用して、非専門家の学習曲線を減少させる。
このフレームワークは、単一のフェアネスの概念を特権化するのではなく、ステークホルダーが複数のフェアネス目標に対して重み付けを割り当てることを可能にし、優先順位を反映し、マルチステークホルダーの妥協を促進する。
このアプローチを現実の4つのデータセットに適用する: 所得予測のためのUCIアダルト国勢調査データセット、犯罪再分配のためのCompASデータセット、信用リスク評価のためのドイツ信用データセット、医療利用のためのMEPSデータセット。
重みを調整することで、異なる公平度指標間の微妙なトレードオフが明らかになる。
最後に、司法判断と医療のケーススタディを通じて、このフレームワークが公正なAIシステムの実用的で価値に敏感な展開をいかに伝えるかを実証する。
関連論文リスト
- Partial Identification Approach to Counterfactual Fairness Assessment [50.88100567472179]
未知の対実的公正度尺度を高い信頼性で有界化するためのベイズ的アプローチを導入する。
以上の結果から、人種をアフリカ系アメリカ人に転換する際のCompASスコアに対する肯定的な(不快な)効果と、若年から高齢に移行する際の否定的な(直接的な因果関係)効果が明らかとなった。
論文 参考訳(メタデータ) (2025-09-30T18:35:08Z) - Peer-induced Fairness: A Causal Approach for Algorithmic Fairness Auditing [0.0]
欧州連合の人工知能法は2024年8月1日に施行された。
リスクの高いAIアプリケーションは、厳格な透明性と公正な基準に従わなければならない。
本稿では,対実的公正性とピア比較戦略の強みを組み合わせた新しい枠組みを提案する。
論文 参考訳(メタデータ) (2024-08-05T15:35:34Z) - EARN Fairness: Explaining, Asking, Reviewing, and Negotiating Artificial Intelligence Fairness Metrics Among Stakeholders [5.216732191267959]
我々は、AIの専門知識を必要とせず、利害関係者間でのメトリクスの集合的決定を促進する新しいフレームワークEARN Fairnessを提案する。
このフレームワークは、適応可能なインタラクティブシステムと、公正度指標を説明するステークホルダ中心のEARNフェアネスプロセス、利害関係者の個人的メトリック選好、総括的メトリクス、メトリクス選択に関するコンセンサスを交渉する。
我々の研究によると、EARN Fairnessフレームワークは、利害関係者が個人の好みを表現し、合意に達することを可能にし、リスクの高い状況下で人間中心のAIフェアネスを実装するための実践的なガイダンスを提供する。
論文 参考訳(メタデータ) (2024-07-16T07:20:30Z) - The Impossibility of Fair LLMs [17.812295963158714]
さまざまな技術的公正フレームワークを分析し、公正な言語モデルの開発を難易度の高いものにするために、それぞれに固有の課題を見つけます。
それぞれのフレームワークが汎用的なAIコンテキストに拡張されないか、実際には実現不可能であることを示す。
これらの固有の課題は、LLMを含む汎用AIにおいて、限られた参加入力や限られた測定方法といった経験的な課題が克服されたとしても、持続する。
論文 参考訳(メタデータ) (2024-05-28T04:36:15Z) - Quantifying the Cross-sectoral Intersecting Discrepancies within Multiple Groups Using Latent Class Analysis Towards Fairness [6.683051393349788]
のイニシアチブは、サービスやリソース、機会へのアクセスにおいて、多種多様な不平等に対処するよう促します。
健康、エネルギー、住宅など、さまざまな分野の意思決定プロセスにAIツールが適用されている。
本研究は,クロスセクタ間差分を定量化するための革新的アプローチを導入する。
論文 参考訳(メタデータ) (2024-05-24T08:10:31Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - Fair Machine Learning in Healthcare: A Review [90.22219142430146]
我々は、機械学習と医療格差における公正性の交差を分析する。
機械学習の観点から、関連する公正度メトリクスを批判的にレビューする。
本稿では,医療における倫理的かつ公平なMLアプリケーション開発を約束する新たな研究指針を提案する。
論文 参考訳(メタデータ) (2022-06-29T04:32:10Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Towards a Fairness-Aware Scoring System for Algorithmic Decision-Making [35.21763166288736]
本稿では,データ駆動型フェアネス対応スコアリングシステムを構築するための一般的なフレームワークを提案する。
提案するフレームワークは,実践者や政策立案者に対して,希望する公正性要件を選択するための柔軟性を提供する。
論文 参考訳(メタデータ) (2021-09-21T09:46:35Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。