論文の概要: "I think this is fair'': Uncovering the Complexities of Stakeholder Decision-Making in AI Fairness Assessment
- arxiv url: http://arxiv.org/abs/2509.17956v1
- Date: Mon, 22 Sep 2025 16:12:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 18:58:16.48933
- Title: "I think this is fair'': Uncovering the Complexities of Stakeholder Decision-Making in AI Fairness Assessment
- Title(参考訳): 「これはフェアだと思う」:AIフェアネスアセスメントにおける株主決定の複雑さを明らかにする
- Authors: Lin Luo, Yuri Nakao, Mathieu Chollet, Hiroya Inakoshi, Simone Stumpf,
- Abstract要約: ステークホルダーの公平性の決定は、一般的なAI専門家のプラクティスよりも複雑であることを示す。
私たちの結果は、利害関係者がAIフェアネスガバナンスと緩和に有意義に貢献する方法についての理解を深めます。
- 参考スコア(独自算出の注目度): 5.919313327612488
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Assessing fairness in artificial intelligence (AI) typically involves AI experts who select protected features, fairness metrics, and set fairness thresholds. However, little is known about how stakeholders, particularly those affected by AI outcomes but lacking AI expertise, assess fairness. To address this gap, we conducted a qualitative study with 30 stakeholders without AI expertise, representing potential decision subjects in a credit rating scenario, to examine how they assess fairness when placed in the role of deciding on features with priority, metrics, and thresholds. We reveal that stakeholders' fairness decisions are more complex than typical AI expert practices: they considered features far beyond legally protected features, tailored metrics for specific contexts, set diverse yet stricter fairness thresholds, and even preferred designing customized fairness. Our results extend the understanding of how stakeholders can meaningfully contribute to AI fairness governance and mitigation, underscoring the importance of incorporating stakeholders' nuanced fairness judgments.
- Abstract(参考訳): 人工知能(AI)の公正性を評価するには、典型的には、保護された特徴、公正度メトリクス、公正度しきい値を設定するAI専門家が関与する。
しかし、利害関係者、特にAIの成果に影響されているものの、AIの専門知識の欠如についてはほとんど分かっていない。
このギャップに対処するため、私たちはAIの専門知識を持たない30人の利害関係者による質的研究を行い、信用格付けシナリオにおける潜在的な意思決定対象を代表し、優先度、メトリクス、しきい値で機能を決定する役割に置かれた際の公正さを評価する方法について検討した。
ステークホルダの公平性の決定は、一般的なAI専門家のプラクティスよりも複雑であることを明らかにする。彼らは、法的に保護された機能以上の機能、特定のコンテキストに適したメトリクス、多様で厳格な公正性しきい値の設定、カスタマイズされた公正性の設計などを検討した。
我々の結果は、利害関係者がAIフェアネスガバナンスと緩和に有意義に貢献する方法についての理解を深め、利害関係者のニュアンスドフェアネス判断を取り入れることの重要性を強調します。
関連論文リスト
- The Value of AI Advice: Personalized and Value-Maximizing AI Advisors Are Necessary to Reliably Benefit Experts and Organizations [8.434663608756253]
AIのパフォーマンスの進歩にもかかわらず、AIアドバイザーは専門家の判断を損なうことができ、専門家が意思決定のために投資しなければならない時間と労力を増やすことができる。
AIアドバイザの設計と評価において、AIアドバイスが現実世界のコンテキストにもたらす価値を評価することの重要性を強調します。
我々の結果は、AIアドバイザのシステムレベルの価値駆動開発の必要性を強調し、専門家の独特な振る舞いに適応し、意思決定の改善と助言コストの間のコンテキスト固有のトレードオフに最適化されている。
論文 参考訳(メタデータ) (2024-12-27T08:50:54Z) - Engineering Trustworthy AI: A Developer Guide for Empirical Risk Minimization [53.80919781981027]
信頼できるAIのための重要な要件は、経験的リスク最小化のコンポーネントの設計選択に変換できる。
私たちは、AIの信頼性の新たな標準を満たすAIシステムを構築するための実用的なガイダンスを提供したいと思っています。
論文 参考訳(メタデータ) (2024-10-25T07:53:32Z) - EARN Fairness: Explaining, Asking, Reviewing, and Negotiating Artificial Intelligence Fairness Metrics Among Stakeholders [5.216732191267959]
我々は、AIの専門知識を必要とせず、利害関係者間でのメトリクスの集合的決定を促進する新しいフレームワークEARN Fairnessを提案する。
このフレームワークは、適応可能なインタラクティブシステムと、公正度指標を説明するステークホルダ中心のEARNフェアネスプロセス、利害関係者の個人的メトリック選好、総括的メトリクス、メトリクス選択に関するコンセンサスを交渉する。
我々の研究によると、EARN Fairnessフレームワークは、利害関係者が個人の好みを表現し、合意に達することを可能にし、リスクの高い状況下で人間中心のAIフェアネスを実装するための実践的なガイダンスを提供する。
論文 参考訳(メタデータ) (2024-07-16T07:20:30Z) - The Impossibility of Fair LLMs [17.812295963158714]
さまざまな技術的公正フレームワークを分析し、公正な言語モデルの開発を難易度の高いものにするために、それぞれに固有の課題を見つけます。
それぞれのフレームワークが汎用的なAIコンテキストに拡張されないか、実際には実現不可能であることを示す。
これらの固有の課題は、LLMを含む汎用AIにおいて、限られた参加入力や限られた測定方法といった経験的な課題が克服されたとしても、持続する。
論文 参考訳(メタデータ) (2024-05-28T04:36:15Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Human-in-the-loop Fairness: Integrating Stakeholder Feedback to Incorporate Fairness Perspectives in Responsible AI [4.0247545547103325]
公正は人工知能(AI)を用いたリスクの高い意思決定への関心が高まっている
普遍的に受け入れられる公正度尺度はなく、公正性は文脈依存であり、公正と見なされるものに関して矛盾する視点があるかもしれない。
私たちの作業は、ステークホルダーが特定の決定インスタンスとその公正性に関する結果に対してフィードバックをすることができるアプローチに従っています。
論文 参考訳(メタデータ) (2023-12-13T11:17:29Z) - Fairness in Matching under Uncertainty [78.39459690570531]
アルゴリズム的な二面市場は、こうした設定における公平性の問題に注意を向けている。
我々は、利益の不確実性を尊重する両面の市場設定において、個々人の公正性の概念を公理化する。
そこで我々は,配当よりも公平なユーティリティ最大化分布を求めるために,線形プログラミングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-02-08T00:30:32Z) - How Different Groups Prioritize Ethical Values for Responsible AI [75.40051547428592]
民間企業、公共セクター組織、学術団体は、責任あるAI技術にとって重要であると考える倫理的価値観を概説している。
彼らのレコメンデーションは中央値のセットに収束するが、より代表的な大衆が、彼らが交流し、影響を受ける可能性のあるAI技術にとって重要な価値についてはほとんど知られていない。
我々は、個人が3つのグループにまたがる責任あるAIの価値観をどのように認識し、優先順位付けしているかを調査した。
論文 参考訳(メタデータ) (2022-05-16T14:39:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。