論文の概要: False consensus biases AI against vulnerable stakeholders
- arxiv url: http://arxiv.org/abs/2407.12143v1
- Date: Fri, 17 May 2024 14:33:47 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-22 09:07:34.035750
- Title: False consensus biases AI against vulnerable stakeholders
- Title(参考訳): 脆弱な利害関係者に対するAIの偏見
- Authors: Mengchen Dong, Jean-François Bonnefon, Iyad Rahwan,
- Abstract要約: 我々は,請求者と非請求者の人口における速度精度トレードオフの公的な受容性について検討する。
本総説では, 請求者と非請求人の相違を目立たせるために, 速度利得のトレードオフを図っている。
- 参考スコア(独自算出の注目度): 0.8754707197790144
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The deployment of AI systems for welfare benefit allocation allows for accelerated decision-making and faster provision of critical help, but has already led to an increase in unfair benefit denials and false fraud accusations. Collecting data in the US and the UK (N = 2449), we explore the public acceptability of such speed-accuracy trade-offs in populations of claimants and non-claimants. We observe a general willingness to trade off speed gains for modest accuracy losses, but this aggregate view masks notable divergences between claimants and non-claimants. Although welfare claimants comprise a relatively small proportion of the general population (e.g., 20% in the US representative sample), this vulnerable group is much less willing to accept AI deployed in welfare systems, raising concerns that solely using aggregate data for calibration could lead to policies misaligned with stakeholder preferences. Our study further uncovers asymmetric insights between claimants and non-claimants. The latter consistently overestimate claimant willingness to accept speed-accuracy trade-offs, even when financially incentivized for accurate perspective-taking. This suggests that policy decisions influenced by the dominant voice of non-claimants, however well-intentioned, may neglect the actual preferences of those directly affected by welfare AI systems. Our findings underline the need for stakeholder engagement and transparent communication in the design and deployment of these systems, particularly in contexts marked by power imbalances.
- Abstract(参考訳): 福祉給付配分のためのAIシステムの展開は、意思決定の迅速化と重要な支援の迅速な提供を可能にするが、すでに不公平な給付拒否や不正詐欺の告発の増加につながっている。
米国と英国(N=2449)のデータを収集し、クレームと非クレームの人口において、そのようなスピード精度のトレードオフが一般に受け入れられるかどうかを調査する。
本総説では, 請求者と非請求人の相違を目立たせるために, 速度利得のトレードオフを図っている。
福祉請求者は一般人口の比較的少ない割合(例:米国代表者の20%)であるが、この脆弱なグループは福祉システムに配備されたAIを受け入れない傾向にあり、集計データのみをキャリブレーションに使用すると、利害関係者の好みに合わない政策につながるのではないかという懸念が浮き彫りになっている。
本研究は,主張者と非主張者との間の非対称的な洞察をさらに明らかにする。
後者は、正確な視点を取るために金銭的にインセンティブを得たとしても、スピード精度のトレードオフを受け入れる権利を一貫して過大評価している。
このことは、非宣言者の支配的な声に影響された政策決定が、十分に意図されたとしても、福祉AIシステムによって直接影響を受ける人々の実際の嗜好を無視する可能性があることを示唆している。
これらのシステムの設計・展開におけるステークホルダーの関与と透過的なコミュニケーションの必要性,特に電力不均衡を特徴とする状況において,本研究の成果は下記のとおりである。
関連論文リスト
- Trading off performance and human oversight in algorithmic policy: evidence from Danish college admissions [11.378331161188022]
学生の退学は教育機関にとって重要な関心事である。
シーケンシャルなAIモデルはより正確で公正な予測を提供する。
入場決定を導くための単純なAIモデルでさえ、大きな経済的利益をもたらすと見積もっている。
論文 参考訳(メタデータ) (2024-11-22T21:12:54Z) - Long-Term Fairness in Sequential Multi-Agent Selection with Positive Reinforcement [21.44063458579184]
大学入学や採用のような選抜プロセスでは、少数派からの応募者に対する偏見は肯定的なフィードバックをもたらすと仮定される。
グリーディスコアとフェアネスのバランスをとるマルチエージェント・フェア・グリーディ政策を提案する。
以上の結果から, 正の強化は長期的公正性にとって有望なメカニズムであるが, 進化モデルの変動に頑健な政策を慎重に設計する必要があることが示唆された。
論文 参考訳(メタデータ) (2024-07-10T04:03:23Z) - Fairness-Accuracy Trade-Offs: A Causal Perspective [58.06306331390586]
我々は、初めて因果レンズから公正性と正確性の間の張力を分析する。
因果的制約を強制することは、しばしば人口集団間の格差を減少させることを示す。
因果制約付きフェアラーニングのための新しいニューラルアプローチを導入する。
論文 参考訳(メタデータ) (2024-05-24T11:19:52Z) - Assessing Group Fairness with Social Welfare Optimization [0.9217021281095907]
本稿では,社会福祉機能の最適化に基づくより広範な社会的正義の概念が,パーティの定義の多様さを評価する上で有用かどうかを考察する。
特定の条件下では、人口比率や均等化確率を正当化できるが、しばしばこの種のパリティから逸脱する必要がある。
さらに,予測率パリティは有用性に限界があることが判明した。
論文 参考訳(メタデータ) (2024-05-19T01:41:04Z) - A Safe Harbor for AI Evaluation and Red Teaming [124.89885800509505]
一部の研究者は、そのような研究の実施や研究成果の公表が、アカウント停止や法的報復につながることを恐れている。
我々は、主要なAI開発者が法的、技術的に安全な港を提供することを約束することを提案します。
これらのコミットメントは、ジェネレーティブAIのリスクに取り組むための、より包括的で意図しないコミュニティ努力への必要なステップである、と私たちは信じています。
論文 参考訳(メタデータ) (2024-03-07T20:55:08Z) - Incentivized Communication for Federated Bandits [67.4682056391551]
我々は,サーバがインセンティブを提供することでクライアントにデータを共有する動機付けを行う,フェデレートされた盗賊に対するインセンティブ付きコミュニケーション問題を導入する。
本稿では,実証可能な通信とインセンティブコスト保証により,ほぼ最適の後悔を実現する,最初のインセンティブ付き通信プロトコルであるInc-FedUCBを提案する。
論文 参考訳(メタデータ) (2023-09-21T00:59:20Z) - Equal Confusion Fairness: Measuring Group-Based Disparities in Automated
Decision Systems [5.076419064097733]
本稿では,公正度の自動判定システムをチェックするための等混乱公正度試験と,不公平度を定量化するための新しい混乱パリティ誤差を提案する。
全体として、ここで提供される方法とメトリクスは、より広範な説明責任評価の一環として、自動決定システムの公正性を評価することができる。
論文 参考訳(メタデータ) (2023-07-02T04:44:19Z) - Causal Fairness for Outcome Control [68.12191782657437]
本稿では,自動システムにおいて,公平かつ公平な結果変数を最適化することを目的とした,結果制御と呼ばれる特定の意思決定タスクについて検討する。
本稿では、まず因果レンズを通して利益の概念を分析し、特定の個人が肯定的な決定によってどれだけの利益を得られるかを明らかにする。
次に、保護された属性の影響を受けている可能性があることに留意し、これを分析するために使用できる因果的ツールを提案する。
論文 参考訳(メタデータ) (2023-06-08T09:31:18Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - Improving Fairness of AI Systems with Lossless De-biasing [15.039284892391565]
AIシステムのバイアスを緩和して全体的な公正性を高めることが重要な課題となっている。
我々は,不利益グループにおけるデータの不足を対象とする情報損失のない脱バイアス手法を提案する。
論文 参考訳(メタデータ) (2021-05-10T17:38:38Z) - Overcoming Failures of Imagination in AI Infused System Development and
Deployment [71.9309995623067]
NeurIPS 2020は研究論文に「潜在的な悪用と失敗の結果」に関するインパクトステートメントを含むよう要求した。
我々は、害の枠組みは文脈に適応し、潜在的な利害関係者、システム余裕、および最も広い意味での害を評価するための実行可能なプロキシを考える必要があると論じている。
論文 参考訳(メタデータ) (2020-11-26T18:09:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。