論文の概要: EARN Fairness: Explaining, Asking, Reviewing and Negotiating Artificial Intelligence Fairness Metrics Among Stakeholders
- arxiv url: http://arxiv.org/abs/2407.11442v1
- Date: Tue, 16 Jul 2024 07:20:30 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-17 16:12:18.430250
- Title: EARN Fairness: Explaining, Asking, Reviewing and Negotiating Artificial Intelligence Fairness Metrics Among Stakeholders
- Title(参考訳): EARN Fairness: 株主間の人工知能フェアネスメトリクスの説明、調査、レビュー、交渉
- Authors: Lin Luo, Yuri Nakao, Mathieu Chollet, Hiroya Inakoshi, Simone Stumpf,
- Abstract要約: 我々は、AIの専門知識を必要とせず、利害関係者間でのメトリクスの集合的決定を促進する新しいフレームワークEARN Fairnessを提案する。
このフレームワークは、適応可能なインタラクティブシステムと、公正度指標を説明するステークホルダ中心のEARNフェアネスプロセス、利害関係者の個人的メトリック選好、総括的メトリクス、メトリクス選択に関するコンセンサスを交渉する。
我々の研究によると、EARN Fairnessフレームワークは、利害関係者が個人の好みを表現し、合意に達することを可能にし、リスクの高い状況下で人間中心のAIフェアネスを実装するための実践的なガイダンスを提供する。
- 参考スコア(独自算出の注目度): 5.216732191267959
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Numerous fairness metrics have been proposed and employed by artificial intelligence (AI) experts to quantitatively measure bias and define fairness in AI models. Recognizing the need to accommodate stakeholders' diverse fairness understandings, efforts are underway to solicit their input. However, conveying AI fairness metrics to stakeholders without AI expertise, capturing their personal preferences, and seeking a collective consensus remain challenging and underexplored. To bridge this gap, we propose a new framework, EARN Fairness, which facilitates collective metric decisions among stakeholders without requiring AI expertise. The framework features an adaptable interactive system and a stakeholder-centered EARN Fairness process to Explain fairness metrics, Ask stakeholders' personal metric preferences, Review metrics collectively, and Negotiate a consensus on metric selection. To gather empirical results, we applied the framework to a credit rating scenario and conducted a user study involving 18 decision subjects without AI knowledge. We identify their personal metric preferences and their acceptable level of unfairness in individual sessions. Subsequently, we uncovered how they reached metric consensus in team sessions. Our work shows that the EARN Fairness framework enables stakeholders to express personal preferences and reach consensus, providing practical guidance for implementing human-centered AI fairness in high-risk contexts. Through this approach, we aim to harmonize fairness expectations of diverse stakeholders, fostering more equitable and inclusive AI fairness.
- Abstract(参考訳): バイアスを定量的に測定し、AIモデルの公正性を定義するために、人工知能(AI)の専門家によって多くの公正度メトリクスが提案され、採用されている。
利害関係者の多様な公正理解に適合する必要性を認識し、インプットを要請する努力が進行中である。
しかし、AIフェアネスメトリクスをAIの専門知識のないステークホルダーに伝達し、個人の好みを捉え、集合的なコンセンサスを求めることは、依然として困難で過小評価されている。
このギャップを埋めるために、AIの専門知識を必要とせず、利害関係者間の総合的な計量決定を促進する新しいフレームワークEARN Fairnessを提案する。
このフレームワークは、適応可能な対話システムと、利害関係者中心のEARNフェアネスプロセスを備えており、フェアネスメトリクス、利害関係者の個人的メトリック選好、総合的なレビューメトリクス、メトリクス選択に関するコンセンサスを説明する。
実験的な結果を得るために,この枠組みを信用格付けシナリオに適用し,AI知識のない18人の意思決定者を対象としたユーザスタディを行った。
個別のセッションにおいて、個人の計量的嗜好と許容される不公平度を識別する。
その後、チームのセッションでメトリクスコンセンサスにどのように到達したかを明らかにしました。
我々の研究によると、EARN Fairnessフレームワークは、利害関係者が個人の好みを表現し、合意に達することを可能にし、リスクの高い状況下で人間中心のAIフェアネスを実装するための実践的なガイダンスを提供する。
このアプローチを通じて、多様な利害関係者の公正な期待を調和させ、より公平で包括的なAI公正を育むことを目指している。
関連論文リスト
- Fair by design: A sociotechnical approach to justifying the fairness of AI-enabled systems across the lifecycle [0.8164978442203773]
公正性は、既存のAIガイドラインにおいて最もよく認識される倫理的原則の1つである。
公正なAI対応システムの開発は、新たなAI規制によって要求される。
論文 参考訳(メタデータ) (2024-06-13T12:03:29Z) - The Impossibility of Fair LLMs [59.424918263776284]
大規模言語モデル(LLM)の時代において、公正なAIの必要性はますます明確になっている。
我々は、機械学習研究者が公正性を評価するために使った技術フレームワークについてレビューする。
我々は、特定のユースケースにおける公平性を達成するためのより現実的な目標のためのガイドラインを策定する。
論文 参考訳(メタデータ) (2024-05-28T04:36:15Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Human-in-the-loop Fairness: Integrating Stakeholder Feedback to Incorporate Fairness Perspectives in Responsible AI [4.0247545547103325]
公正は人工知能(AI)を用いたリスクの高い意思決定への関心が高まっている
普遍的に受け入れられる公正度尺度はなく、公正性は文脈依存であり、公正と見なされるものに関して矛盾する視点があるかもしれない。
私たちの作業は、ステークホルダーが特定の決定インスタンスとその公正性に関する結果に対してフィードバックをすることができるアプローチに従っています。
論文 参考訳(メタデータ) (2023-12-13T11:17:29Z) - Online Decision Mediation [72.80902932543474]
意思決定支援アシスタントを学習し、(好奇心)専門家の行動と(不完全)人間の行動の仲介役として機能することを検討する。
臨床診断では、完全に自律的な機械行動は倫理的余裕を超えることが多い。
論文 参考訳(メタデータ) (2023-10-28T05:59:43Z) - Why not both? Complementing explanations with uncertainty, and the role
of self-confidence in Human-AI collaboration [12.47276164048813]
本研究では,不確実性評価とモデル説明がモデルに対するユーザの信頼,理解,信頼にどのように影響するかを明らかにするための実証的研究を行う。
また,合意と切り換え率に基づいて,後者が分析結果を歪める可能性についても論じる。
論文 参考訳(メタデータ) (2023-04-27T12:24:33Z) - Towards a multi-stakeholder value-based assessment framework for
algorithmic systems [76.79703106646967]
我々は、価値間の近さと緊張を可視化する価値に基づくアセスメントフレームワークを開発する。
我々は、幅広い利害関係者に評価と検討のプロセスを開放しつつ、それらの運用方法に関するガイドラインを提示する。
論文 参考訳(メタデータ) (2022-05-09T19:28:32Z) - Designing for Responsible Trust in AI Systems: A Communication
Perspective [56.80107647520364]
我々は、MATCHと呼ばれる概念モデルを開発するために、技術に対する信頼に関するコミュニケーション理論と文献から引き出す。
私たちは、AIシステムの能力として透明性とインタラクションを強調します。
我々は、技術クリエーターが使用する適切な方法を特定するのに役立つ要件のチェックリストを提案する。
論文 参考訳(メタデータ) (2022-04-29T00:14:33Z) - Fairness Score and Process Standardization: Framework for Fairness
Certification in Artificial Intelligence Systems [0.4297070083645048]
本稿では,データ駆動型AIシステムの公平性を測定するための新しいフェアネススコアを提案する。
また、公正性の概念を運用し、そのようなシステムの商用展開を容易にするためのフレームワークも提供する。
論文 参考訳(メタデータ) (2022-01-10T15:45:12Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - Getting Fairness Right: Towards a Toolbox for Practitioners [2.4364387374267427]
バイアスを意図せずに埋め込んで再現するAIシステムの潜在的なリスクは、マシンラーニング実践者や社会全体の注目を集めている。
本稿では,実践者が公正なAI実践を確実にするためのツールボックスのドラフトを提案する。
論文 参考訳(メタデータ) (2020-03-15T20:53:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。