論文の概要: Fairness Perceptions of Algorithmic Decision-Making: A Systematic Review
of the Empirical Literature
- arxiv url: http://arxiv.org/abs/2103.12016v1
- Date: Mon, 22 Mar 2021 17:12:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-23 18:46:32.703836
- Title: Fairness Perceptions of Algorithmic Decision-Making: A Systematic Review
of the Empirical Literature
- Title(参考訳): アルゴリズム決定の公正な知覚:実証文学の体系的レビュー
- Authors: Christopher Starke, Janine Baleis, Birte Keller, Frank Marcinkowski
- Abstract要約: アルゴリズムによる意思決定(ADM)は、人々の日常生活をますます形作る。
学者や政策立案者が要求する人間中心のアプローチは、人々の公正な認識を考慮する必要があります。
アルゴリズム公平性の認識に関する既存の経験的洞察の包括的で体系的な文献レビューを提供します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Algorithmic decision-making (ADM) increasingly shapes people's daily lives.
Given that such autonomous systems can cause severe harm to individuals and
social groups, fairness concerns have arisen. A human-centric approach demanded
by scholars and policymakers requires taking people's fairness perceptions into
account when designing and implementing ADM. We provide a comprehensive,
systematic literature review synthesizing the existing empirical insights on
perceptions of algorithmic fairness from 39 empirical studies spanning multiple
domains and scientific disciplines. Through thorough coding, we systemize the
current empirical literature along four dimensions: (a) algorithmic predictors,
(b) human predictors, (c) comparative effects (human decision-making vs.
algorithmic decision-making), and (d) consequences of ADM. While we identify
much heterogeneity around the theoretical concepts and empirical measurements
of algorithmic fairness, the insights come almost exclusively from
Western-democratic contexts. By advocating for more interdisciplinary research
adopting a society-in-the-loop framework, we hope our work will contribute to
fairer and more responsible ADM.
- Abstract(参考訳): アルゴリズムによる意思決定(ADM)は、人々の日常生活をますます形作る。
このような自律システムは個人や社会グループに深刻な被害を与える可能性があるため、公正な懸念が生まれている。
学者や政策立案者によって要求される人間中心のアプローチは、admの設計と実装において人々の公正感を考慮に入れなければならない。我々は、複数の領域と科学分野にわたる39の実証研究から、既存のアルゴリズム的公正感に関する経験的洞察を合成した包括的かつ体系的な文献レビューを提供する。
a) アルゴリズム予測器,(b) 人間の予測器,(c) 比較効果(人間による意思決定とアルゴリズムによる意思決定) および(d) ADMの結果である。
アルゴリズムの公正性に関する理論的概念と実証的な測定に関する多くの異質性を見いだす一方で、その洞察はほとんど西洋-民主主義の文脈から来ている。
コミュニティ・イン・ザ・ループの枠組みを取り入れたより学際的な研究を提唱することで、我々の研究がより公平で責任あるADMに貢献することを願っている。
関連論文リスト
- Whither Bias Goes, I Will Go: An Integrative, Systematic Review of Algorithmic Bias Mitigation [1.0470286407954037]
機械学習(ML)モデルは不平等をバイアスし、持続し、悪化させる可能性があるという懸念が高まっている。
本稿では,MLアセスメントを開発し,バイアス軽減手法を適用した4段階モデルを提案する。
論文 参考訳(メタデータ) (2024-10-21T02:32:14Z) - Towards Bidirectional Human-AI Alignment: A Systematic Review for Clarifications, Framework, and Future Directions [101.67121669727354]
近年のAIの進歩は、AIシステムを意図された目標、倫理的原則、個人とグループの価値に向けて導くことの重要性を強調している。
人間のAIアライメントの明確な定義とスコープの欠如は、このアライメントを達成するための研究領域間の共同作業を妨げる、大きな障害となる。
我々は、2019年から2024年1月までに400以上の論文を体系的にレビューし、HCI(Human-Computer Interaction)、自然言語処理(NLP)、機械学習(ML)といった複数の分野にまたがって紹介する。
論文 参考訳(メタデータ) (2024-06-13T16:03:25Z) - Algorithmic Fairness: A Tolerance Perspective [31.882207568746168]
この調査はアルゴリズムの公正性に関する既存の文献を掘り下げ、特にその多面的な社会的影響を強調している。
我々は「寛容」に基づく新しい分類法を導入し、公正な結果の変動が許容される度合いとして定義する。
我々の体系的なレビューは多様な産業をカバーし、アルゴリズムによる意思決定と社会的株式のバランスに関する重要な洞察を明らかにしている。
論文 参考訳(メタデータ) (2024-04-26T08:16:54Z) - The Fairness Fair: Bringing Human Perception into Collective
Decision-Making [16.300744216179545]
我々は、公正な解決策は、社会プランナー(設計者)によって望ましいものとみなすだけでなく、人間と社会的認知によって統治されるべきであると主張している。
この目標を達成するには、コンピューティングやAIから行動経済学、人間とAIの相互作用まで幅広い学際的なアプローチが必要かについて議論する。
論文 参考訳(メタデータ) (2023-12-22T03:06:24Z) - Human-AI Coevolution [48.74579595505374]
Coevolution AIは、人間とAIアルゴリズムが相互に連続的に影響を及ぼすプロセスである。
本稿では,AIと複雑性科学の交点における新たな研究分野の基盤として,Coevolution AIを紹介した。
論文 参考訳(メタデータ) (2023-06-23T18:10:54Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - Fairness in Recommender Systems: Research Landscape and Future
Directions [119.67643184567623]
本稿は,近年の地域におけるフェアネスの概念と概念について概観する。
この分野での研究が現在どのように行われているのかを概観する。
全体として、最近の研究成果の分析は、ある研究のギャップを示している。
論文 参考訳(メタデータ) (2022-05-23T08:34:25Z) - Doubting AI Predictions: Influence-Driven Second Opinion Recommendation [92.30805227803688]
我々は,補完的な意見を提供する可能性のある専門家を識別する,共通の組織的実践に基づいて,人間とAIのコラボレーションを強化する方法を提案する。
提案手法は、一部の専門家がアルゴリズムによる評価に異を唱えるかどうかを特定することによって、生産的な不一致を活用することを目的としている。
論文 参考訳(メタデータ) (2022-04-29T20:35:07Z) - A Framework of High-Stakes Algorithmic Decision-Making for the Public
Sector Developed through a Case Study of Child-Welfare [3.739243122393041]
我々は,公共セクターに適応したアルゴリズムによる意思決定の結束的枠組みを開発する。
本研究は,児童福祉機関における日常利用におけるアルゴリズムの事例研究である。
本稿では,公共セクターにおける高精度なアルゴリズム決定ツールの設計ガイドラインを提案する。
論文 参考訳(メタデータ) (2021-07-07T21:24:35Z) - Impact Remediation: Optimal Interventions to Reduce Inequality [10.806517393212491]
我々は、既存の現実世界の格差に対処するための新しいアルゴリズムフレームワークを開発する。
本フレームワークの目的は、現実世界の格差を計測し、最適な介入ポリシーを発見することである。
最適な政策学習に関するほとんどの研究とは対照的に、格差低減自体を目的として検討する。
論文 参考訳(メタデータ) (2021-07-01T16:35:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。