論文の概要: Disclosure and Evaluation as Fairness Interventions for General-Purpose AI
- arxiv url: http://arxiv.org/abs/2510.05292v1
- Date: Mon, 06 Oct 2025 19:00:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-08 17:57:07.949068
- Title: Disclosure and Evaluation as Fairness Interventions for General-Purpose AI
- Title(参考訳): 汎用AIのための公正介入としての開示と評価
- Authors: Vyoma Raman, Judy Hanwen Shen, Andy K. Zhang, Lindsey Gailmard, Rishi Bommasani, Daniel E. Ho, Angelina Wang,
- Abstract要約: 我々は、公正な結果を構成するものについて説明できないが、フェアネスのために異なる利害関係者が従うべきプロセスを特定することができると論じている。
システムプロバイダとシステムデプロイという2つの主要なグループの義務について検討する。
- 参考スコア(独自算出の注目度): 16.220252808413086
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite conflicting definitions and conceptions of fairness, AI fairness researchers broadly agree that fairness is context-specific. However, when faced with general-purpose AI, which by definition serves a range of contexts, how should we think about fairness? We argue that while we cannot be prescriptive about what constitutes fair outcomes, we can specify the processes that different stakeholders should follow in service of fairness. Specifically, we consider the obligations of two major groups: system providers and system deployers. While system providers are natural candidates for regulatory attention, the current state of AI understanding offers limited insight into how upstream factors translate into downstream fairness impacts. Thus, we recommend that providers invest in evaluative research studying how model development decisions influence fairness and disclose whom they are serving their models to, or at the very least, reveal sufficient information for external researchers to conduct such research. On the other hand, system deployers are closer to real-world contexts and can leverage their proximity to end users to address fairness harms in different ways. Here, we argue they should responsibly disclose information about users and personalization and conduct rigorous evaluations across different levels of fairness. Overall, instead of focusing on enforcing fairness outcomes, we prioritize intentional information-gathering by system providers and deployers that can facilitate later context-aware action. This allows us to be specific and concrete about the processes even while the contexts remain unknown. Ultimately, this approach can sharpen how we distribute fairness responsibilities and inform more fluid, context-sensitive interventions as AI continues to advance.
- Abstract(参考訳): フェアネスの定義と概念の矛盾にもかかわらず、AIフェアネスの研究者はフェアネスが文脈固有のものであることに広く同意している。
しかし、定義によってさまざまな文脈に当てはまる汎用AIに直面する場合、公平性についてどう考えるべきか?
我々は、公正な結果を構成するものについて説明できないが、フェアネスのために異なる利害関係者が従うべきプロセスを特定することができると論じている。
具体的には、システムプロバイダとシステムデプロイという2つの主要なグループの義務について検討する。
システムプロバイダは、規制の注意を向ける自然な候補だが、現在のAI理解の状態は、上流の要因が下流の公平性に与える影響について、限られた洞察を提供する。
したがって、モデル開発決定が公正性にどのように影響するかを検証し、モデルを提供する者、少なくとも外部研究者がそのような研究を行うのに十分な情報を明らかにするための評価研究に投資することを推奨する。
一方、システムデプロイは現実世界のコンテキストに近づき、エンドユーザーに近づき、様々な方法で公正な害に対処することができる。
ここでは、ユーザやパーソナライズに関する情報を責任を持って開示し、さまざまな公平さのレベルにわたって厳密な評価を行うことを論じる。
全体として、公正な結果の実施に重点を置くのではなく、システムプロバイダやデプロイ担当者による意図的な情報収集を優先し、後続のコンテキスト認識アクションを容易にします。
これにより、コンテキストが不明な状態であっても、プロセスについて具体的で具体的になることができます。
最終的にこのアプローチは、公正な責任の分散方法を強化し、AIが前進し続けるにつれて、より流動的でコンテキストに敏感な介入を通知する。
関連論文リスト
- Partial Identification Approach to Counterfactual Fairness Assessment [50.88100567472179]
未知の対実的公正度尺度を高い信頼性で有界化するためのベイズ的アプローチを導入する。
以上の結果から、人種をアフリカ系アメリカ人に転換する際のCompASスコアに対する肯定的な(不快な)効果と、若年から高齢に移行する際の否定的な(直接的な因果関係)効果が明らかとなった。
論文 参考訳(メタデータ) (2025-09-30T18:35:08Z) - "I think this is fair'': Uncovering the Complexities of Stakeholder Decision-Making in AI Fairness Assessment [5.919313327612488]
ステークホルダーの公平性の決定は、一般的なAI専門家のプラクティスよりも複雑であることを示す。
私たちの結果は、利害関係者がAIフェアネスガバナンスと緩和に有意義に貢献する方法についての理解を深めます。
論文 参考訳(メタデータ) (2025-09-22T16:12:12Z) - EARN Fairness: Explaining, Asking, Reviewing, and Negotiating Artificial Intelligence Fairness Metrics Among Stakeholders [5.216732191267959]
我々は、AIの専門知識を必要とせず、利害関係者間でのメトリクスの集合的決定を促進する新しいフレームワークEARN Fairnessを提案する。
このフレームワークは、適応可能なインタラクティブシステムと、公正度指標を説明するステークホルダ中心のEARNフェアネスプロセス、利害関係者の個人的メトリック選好、総括的メトリクス、メトリクス選択に関するコンセンサスを交渉する。
我々の研究によると、EARN Fairnessフレームワークは、利害関係者が個人の好みを表現し、合意に達することを可能にし、リスクの高い状況下で人間中心のAIフェアネスを実装するための実践的なガイダンスを提供する。
論文 参考訳(メタデータ) (2024-07-16T07:20:30Z) - The Impossibility of Fair LLMs [17.812295963158714]
さまざまな技術的公正フレームワークを分析し、公正な言語モデルの開発を難易度の高いものにするために、それぞれに固有の課題を見つけます。
それぞれのフレームワークが汎用的なAIコンテキストに拡張されないか、実際には実現不可能であることを示す。
これらの固有の課題は、LLMを含む汎用AIにおいて、限られた参加入力や限られた測定方法といった経験的な課題が克服されたとしても、持続する。
論文 参考訳(メタデータ) (2024-05-28T04:36:15Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - Joint Multisided Exposure Fairness for Recommendation [76.75990595228666]
本稿では,消費者と生産者の両面から共同で問題をモデル化する,露出公正度尺度のファミリを定式化する。
具体的には、双方の利害関係者に対するグループ属性について、個別のユーザや項目を超えて、より体系的なバイアスを推奨するフェアネスの懸念を識別し緩和する。
論文 参考訳(メタデータ) (2022-04-29T19:13:23Z) - Appropriate Fairness Perceptions? On the Effectiveness of Explanations
in Enabling People to Assess the Fairness of Automated Decision Systems [0.0]
効果的に説明するためには、基礎となるADSが公正である場合に限り、公平性に対する認識が増加するべきであると論じる。
本研究は, 適切な公正感のデシプラタムを導入し, 評価のための新しい研究設計を提案し, 総合的な実験に向けての次のステップを概説する。
論文 参考訳(メタデータ) (2021-08-14T09:39:59Z) - Trustworthy AI [75.99046162669997]
入力データの小さな敵対的変化への脆さ、決定の説明能力、トレーニングデータのバイアスに対処する能力は、最も顕著な制限である。
我々は,AIシステムに対するユーザおよび公的な信頼を高める上での6つの重要な問題に対処するために,信頼に値するAIに関するチュートリアルを提案する。
論文 参考訳(メタデータ) (2020-11-02T20:04:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。