論文の概要: Toward Valid Measurement Of (Un)fairness For Generative AI: A Proposal For Systematization Through The Lens Of Fair Equality of Chances
- arxiv url: http://arxiv.org/abs/2507.04641v1
- Date: Mon, 07 Jul 2025 03:49:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-08 15:46:35.269777
- Title: Toward Valid Measurement Of (Un)fairness For Generative AI: A Proposal For Systematization Through The Lens Of Fair Equality of Chances
- Title(参考訳): 生成的AIのための(不)公正性の正当性測定に向けて--不平等なケースのレンズを通してのシステム化の提案
- Authors: Kimberly Le Truong, Annette Zimmermann, Hoda Heidari,
- Abstract要約: ジェネレーティブAI(GenAI)システムの社会的損害と影響の相違は、効果的な不公平性測定アプローチに対する重要なニーズを浮き彫りにする。
本稿では,GenAIの不公平度評価のための新たな枠組みを提案する。
我々の枠組みは不公平を3つの中核的な構成要素に分解する: システムの結果から生じる害と利益、害と利益の分配に不平等をもたらすべきでない道徳的任意の要因、そして、異なる治療を適切に受けられるサブセットを区別する道徳的決定的要因である。
- 参考スコア(独自算出の注目度): 9.217996627263219
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Disparities in the societal harms and impacts of Generative AI (GenAI) systems highlight the critical need for effective unfairness measurement approaches. While numerous benchmarks exist, designing valid measurements requires proper systematization of the unfairness construct. Yet this process is often neglected, resulting in metrics that may mischaracterize unfairness by overlooking contextual nuances, thereby compromising the validity of the resulting measurements. Building on established (un)fairness measurement frameworks for predictive AI, this paper focuses on assessing and improving the validity of the measurement task. By extending existing conceptual work in political philosophy, we propose a novel framework for evaluating GenAI unfairness measurement through the lens of the Fair Equality of Chances framework. Our framework decomposes unfairness into three core constituents: the harm/benefit resulting from the system outcomes, morally arbitrary factors that should not lead to inequality in the distribution of harm/benefit, and the morally decisive factors, which distinguish subsets that can justifiably receive different treatments. By examining fairness through this structured lens, we integrate diverse notions of (un)fairness while accounting for the contextual dynamics that shape GenAI outcomes. We analyze factors contributing to each component and the appropriate processes to systematize and measure each in turn. This work establishes a foundation for developing more valid (un)fairness measurements for GenAI systems.
- Abstract(参考訳): ジェネレーティブAI(GenAI)システムの社会的損害と影響の相違は、効果的な不公平性測定アプローチに対する重要なニーズを浮き彫りにする。
多くのベンチマークが存在するが、有効な測定を設計するには不公平な構成を適切に体系化する必要がある。
しかし、この過程は無視されることが多く、結果として文脈的ニュアンスを見渡すことによって不公平さを誤認し、結果として得られる測定の妥当性を損なうことになる。
本稿では、予測AIのための確立された(不公平な)測定フレームワークに基づいて、測定タスクの妥当性を評価し、改善することに焦点を当てる。
政治哲学における既存の概念的研究を拡大することにより、不公平度評価のための新たな枠組みを提案する。
我々の枠組みは不公平を3つの中核的な構成要素に分解する: システムの結果から生じる害と利益、害と利益の分配に不平等をもたらすべきでない道徳的任意の要因、そして、異なる治療を適切に受けられるサブセットを区別する道徳的決定的要因である。
この構造されたレンズを通して公正性を調べることにより、GenAIの結果を形成する文脈的ダイナミクスを考慮しつつ、(不)公正性の多様な概念を統合する。
それぞれのコンポーネントに寄与する要因と、各コンポーネントを体系化し、測定する適切なプロセスを分析します。
この研究は、GenAIシステムのためのより有効な(不公平な)測定方法を開発するための基盤を確立する。
関連論文リスト
- Fairness-Accuracy Trade-Offs: A Causal Perspective [58.06306331390586]
我々は、初めて因果レンズから公正性と正確性の間の張力を分析する。
因果的制約を強制することは、しばしば人口集団間の格差を減少させることを示す。
因果制約付きフェアラーニングのための新しいニューラルアプローチを導入する。
論文 参考訳(メタデータ) (2024-05-24T11:19:52Z) - Fairness in Algorithmic Recourse Through the Lens of Substantive
Equality of Opportunity [15.78130132380848]
アルゴリズムによる会話は、AIシステムとのインタラクションにおいて人に対してエージェンシーを与える手段として注目を集めている。
近年の研究では、個人の初期状況の違いにより、会話自体が不公平である可能性があることが示されている。
個人が行動するのに時間がかかるほど、設定が変更される可能性があるからだ。
論文 参考訳(メタデータ) (2024-01-29T11:55:45Z) - Navigating Fairness Measures and Trade-Offs [0.0]
私は、Rawlsの公正性の概念をフェアネスとして利用することで、公正性対策と正確なトレードオフをナビゲートするための基盤を作ることができることを示します。
これはまた、分配的正義の哲学的説明と公正文学の間のギャップを埋めるのにも役立っている。
論文 参考訳(メタデータ) (2023-07-17T13:45:47Z) - Equal Confusion Fairness: Measuring Group-Based Disparities in Automated
Decision Systems [5.076419064097733]
本稿では,公正度の自動判定システムをチェックするための等混乱公正度試験と,不公平度を定量化するための新しい混乱パリティ誤差を提案する。
全体として、ここで提供される方法とメトリクスは、より広範な説明責任評価の一環として、自動決定システムの公正性を評価することができる。
論文 参考訳(メタデータ) (2023-07-02T04:44:19Z) - Causal Fairness for Outcome Control [68.12191782657437]
本稿では,自動システムにおいて,公平かつ公平な結果変数を最適化することを目的とした,結果制御と呼ばれる特定の意思決定タスクについて検討する。
本稿では、まず因果レンズを通して利益の概念を分析し、特定の個人が肯定的な決定によってどれだけの利益を得られるかを明らかにする。
次に、保護された属性の影響を受けている可能性があることに留意し、これを分析するために使用できる因果的ツールを提案する。
論文 参考訳(メタデータ) (2023-06-08T09:31:18Z) - Reconciling Predictive and Statistical Parity: A Causal Approach [68.59381759875734]
本稿では,予測パリティに付随する公平度対策のための因果分解式を提案する。
統計的および予測パリティの概念は、実際には互いに排他的ではなく、相補的であり、公正の概念のスペクトルにまたがっていることを示す。
論文 参考訳(メタデータ) (2023-06-08T09:23:22Z) - Fairness in Contextual Resource Allocation Systems: Metrics and
Incompatibility Results [7.705334602362225]
本研究は、住宅を提供するホームレスサービスなど、基本的なニーズを満たすため、不足する資源を割り当てるシステムについて研究する。
これらの制度は、しばしば、体系的な人種、性別、その他の不正によって不当に影響を受けるコミュニティをサポートする。
本稿では,機械学習における公平度指標に触発された文脈的資源配分システムにおける公平性を評価するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2022-12-04T02:30:58Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Are There Exceptions to Goodhart's Law? On the Moral Justification of Fairness-Aware Machine Learning [14.428360876120333]
公正度対策はグッドハートの法則に特に敏感であると主張する。
公正度尺度の正当性に関する道徳的推論の枠組みを提示する。
論文 参考訳(メタデータ) (2022-02-17T09:26:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。