論文の概要: Empowering Affected Individuals to Shape AI Fairness Assessments: Processes, Criteria, and Tools
- arxiv url: http://arxiv.org/abs/2602.06984v1
- Date: Tue, 27 Jan 2026 12:51:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-15 14:54:53.681219
- Title: Empowering Affected Individuals to Shape AI Fairness Assessments: Processes, Criteria, and Tools
- Title(参考訳): 影響のある個人にAIフェアネスアセスメントを形成させる:プロセス、基準、ツール
- Authors: Lin Luo, Satwik Ghanta, Yuri Nakao, Mathieu Chollet, Simone Stumpf,
- Abstract要約: 既存の公正評価は通常、保護された属性とメトリクスを使用して、AI専門家または規制当局によって実施される。
近年の研究では、影響を受けた個人を公平性評価に巻き込むことが要求されているが、自身の公正性基準の作成方法に関する実証的な証拠はほとんどない。
- 参考スコア(独自算出の注目度): 5.72357951997548
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: AI systems are increasingly used in high-stakes domains such as credit rating, where fairness concerns are critical. Existing fairness assessments are typically conducted by AI experts or regulators using predefined protected attributes and metrics, which often fail to capture the diversity and nuance of fairness notions held by the individuals who are affected by these systems' decisions, such as decision subjects. Recent work has therefore called for involving affected individuals in fairness assessment, yet little empirical evidence exists on how they create their own fairness criteria or what kinds of criteria they produce - knowledge that could not only inform experts' fairness evaluation and mitigation, but also guide the design of AI assessment tools. We address this gap through a qualitative user study with 18 participants in a credit rating scenario. Participants first articulated their fairness notions in their own words. Then, participants turned them into concrete quantified and operationalized fairness criteria, through an interactive prototype we designed. Our findings provide empirical evidence of the process through which people's fairness notions emerge via grounding in model features, and uncover a diverse set of individuals' custom-defined criteria for both outcome and procedural fairness. We provide design implications for processes and tools that support more inclusive and value-sensitive AI fairness assessment.
- Abstract(参考訳): AIシステムは、公正性の懸念が重要となる信用格付けのような高い評価領域で、ますます使われている。
既存の公正評価は通常、事前に定義された保護された属性とメトリクスを使用してAI専門家または規制当局によって実施される。
それゆえ、近年の研究では、影響のある個人をフェアネス評価に巻き込むことが求められているが、彼ら自身のフェアネス基準の作成方法や、彼らが作り出す基準の種類について、実証的な証拠はほとんど存在しない。
我々は18人の参加者による質的なユーザスタディを通じて、このギャップに対処する。
参加者はまず自分の言葉で公平さの概念を表現した。
参加者はそれらを,私たちが設計したインタラクティブプロトタイプを通じて,具体的な定量化と運用の公正性基準に変換しました。
本研究は, モデル特徴の基盤化を通じて, 人々の公正概念が出現する過程の実証的証拠を提供し, 結果と手続き的公正性の両方について, 個人独自の基準の多様さを明らかにするものである。
より包括的で価値に敏感なAIフェアネスアセスメントをサポートするプロセスやツールの設計上の意味を提供する。
関連論文リスト
- "I think this is fair'': Uncovering the Complexities of Stakeholder Decision-Making in AI Fairness Assessment [5.919313327612488]
ステークホルダーの公平性の決定は、一般的なAI専門家のプラクティスよりも複雑であることを示す。
私たちの結果は、利害関係者がAIフェアネスガバナンスと緩和に有意義に貢献する方法についての理解を深めます。
論文 参考訳(メタデータ) (2025-09-22T16:12:12Z) - AI Judges in Design: Statistical Perspectives on Achieving Human Expert Equivalence With Vision-Language Models [3.092385483349516]
本稿では、AI審査員のレーティングが人間の専門家のレーティングと一致するかどうかを判断する厳密な統計枠組みを提案する。
この枠組みを,VLMに基づく4人の審査員を主要な設計基準で評価するケーススタディに適用する。
その結果,トップパフォーマンスのAI審査員は,一意性や描画品質に関する専門家レベルの合意を達成できることがわかった。
論文 参考訳(メタデータ) (2025-04-01T16:20:29Z) - On the Fairness, Diversity and Reliability of Text-to-Image Generative Models [68.62012304574012]
マルチモーダル生成モデルは 信頼性 公正性 誤用の可能性について 批判的な議論を巻き起こしました
埋め込み空間におけるグローバルおよびローカルな摂動に対する応答を解析し、モデルの信頼性を評価するための評価フレームワークを提案する。
提案手法は, 信頼できない, バイアス注入されたモデルを検出し, 組込みバイアスの証明をトレースするための基礎となる。
論文 参考訳(メタデータ) (2024-11-21T09:46:55Z) - EARN Fairness: Explaining, Asking, Reviewing, and Negotiating Artificial Intelligence Fairness Metrics Among Stakeholders [5.216732191267959]
我々は、AIの専門知識を必要とせず、利害関係者間でのメトリクスの集合的決定を促進する新しいフレームワークEARN Fairnessを提案する。
このフレームワークは、適応可能なインタラクティブシステムと、公正度指標を説明するステークホルダ中心のEARNフェアネスプロセス、利害関係者の個人的メトリック選好、総括的メトリクス、メトリクス選択に関するコンセンサスを交渉する。
我々の研究によると、EARN Fairnessフレームワークは、利害関係者が個人の好みを表現し、合意に達することを可能にし、リスクの高い状況下で人間中心のAIフェアネスを実装するための実践的なガイダンスを提供する。
論文 参考訳(メタデータ) (2024-07-16T07:20:30Z) - Evaluating the Fairness of Discriminative Foundation Models in Computer
Vision [51.176061115977774]
本稿では,CLIP (Contrastive Language-Pretraining) などの差別基盤モデルのバイアス評価のための新しい分類法を提案する。
そして、これらのモデルにおけるバイアスを緩和するための既存の手法を分類学に関して体系的に評価する。
具体的には,ゼロショット分類,画像検索,画像キャプションなど,OpenAIのCLIPとOpenCLIPモデルをキーアプリケーションとして評価する。
論文 参考訳(メタデータ) (2023-10-18T10:32:39Z) - Towards a multi-stakeholder value-based assessment framework for
algorithmic systems [76.79703106646967]
我々は、価値間の近さと緊張を可視化する価値に基づくアセスメントフレームワークを開発する。
我々は、幅広い利害関係者に評価と検討のプロセスを開放しつつ、それらの運用方法に関するガイドラインを提示する。
論文 参考訳(メタデータ) (2022-05-09T19:28:32Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。