論文の概要: Fairness Perceptions of Algorithmic Decision-Making: A Systematic Review
of the Empirical Literature
- arxiv url: http://arxiv.org/abs/2103.12016v1
- Date: Mon, 22 Mar 2021 17:12:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-23 18:46:32.703836
- Title: Fairness Perceptions of Algorithmic Decision-Making: A Systematic Review
of the Empirical Literature
- Title(参考訳): アルゴリズム決定の公正な知覚:実証文学の体系的レビュー
- Authors: Christopher Starke, Janine Baleis, Birte Keller, Frank Marcinkowski
- Abstract要約: アルゴリズムによる意思決定(ADM)は、人々の日常生活をますます形作る。
学者や政策立案者が要求する人間中心のアプローチは、人々の公正な認識を考慮する必要があります。
アルゴリズム公平性の認識に関する既存の経験的洞察の包括的で体系的な文献レビューを提供します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Algorithmic decision-making (ADM) increasingly shapes people's daily lives.
Given that such autonomous systems can cause severe harm to individuals and
social groups, fairness concerns have arisen. A human-centric approach demanded
by scholars and policymakers requires taking people's fairness perceptions into
account when designing and implementing ADM. We provide a comprehensive,
systematic literature review synthesizing the existing empirical insights on
perceptions of algorithmic fairness from 39 empirical studies spanning multiple
domains and scientific disciplines. Through thorough coding, we systemize the
current empirical literature along four dimensions: (a) algorithmic predictors,
(b) human predictors, (c) comparative effects (human decision-making vs.
algorithmic decision-making), and (d) consequences of ADM. While we identify
much heterogeneity around the theoretical concepts and empirical measurements
of algorithmic fairness, the insights come almost exclusively from
Western-democratic contexts. By advocating for more interdisciplinary research
adopting a society-in-the-loop framework, we hope our work will contribute to
fairer and more responsible ADM.
- Abstract(参考訳): アルゴリズムによる意思決定(ADM)は、人々の日常生活をますます形作る。
このような自律システムは個人や社会グループに深刻な被害を与える可能性があるため、公正な懸念が生まれている。
学者や政策立案者によって要求される人間中心のアプローチは、admの設計と実装において人々の公正感を考慮に入れなければならない。我々は、複数の領域と科学分野にわたる39の実証研究から、既存のアルゴリズム的公正感に関する経験的洞察を合成した包括的かつ体系的な文献レビューを提供する。
a) アルゴリズム予測器,(b) 人間の予測器,(c) 比較効果(人間による意思決定とアルゴリズムによる意思決定) および(d) ADMの結果である。
アルゴリズムの公正性に関する理論的概念と実証的な測定に関する多くの異質性を見いだす一方で、その洞察はほとんど西洋-民主主義の文脈から来ている。
コミュニティ・イン・ザ・ループの枠組みを取り入れたより学際的な研究を提唱することで、我々の研究がより公平で責任あるADMに貢献することを願っている。
関連論文リスト
- The Fairness Fair: Bringing Human Perception into Collective
Decision-Making [16.300744216179545]
我々は、公正な解決策は、社会プランナー(設計者)によって望ましいものとみなすだけでなく、人間と社会的認知によって統治されるべきであると主張している。
この目標を達成するには、コンピューティングやAIから行動経済学、人間とAIの相互作用まで幅広い学際的なアプローチが必要かについて議論する。
論文 参考訳(メタデータ) (2023-12-22T03:06:24Z) - Online Decision Mediation [72.80902932543474]
意思決定支援アシスタントを学習し、(好奇心)専門家の行動と(不完全)人間の行動の仲介役として機能することを検討する。
臨床診断では、完全に自律的な機械行動は倫理的余裕を超えることが多い。
論文 参考訳(メタデータ) (2023-10-28T05:59:43Z) - Bias and Fairness in Large Language Models: A Survey [76.65471160523444]
本稿では,大規模言語モデル(LLM)のバイアス評価と緩和手法に関する総合的な調査を行う。
まず、自然言語処理における社会的偏見と公平性の概念を統合し、形式化し、拡張する。
次に,3つの直感的な2つのバイアス評価法と1つの緩和法を提案し,文献を統一する。
論文 参考訳(メタデータ) (2023-09-02T00:32:55Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - Fairness in Recommender Systems: Research Landscape and Future
Directions [119.67643184567623]
本稿は,近年の地域におけるフェアネスの概念と概念について概観する。
この分野での研究が現在どのように行われているのかを概観する。
全体として、最近の研究成果の分析は、ある研究のギャップを示している。
論文 参考訳(メタデータ) (2022-05-23T08:34:25Z) - Doubting AI Predictions: Influence-Driven Second Opinion Recommendation [92.30805227803688]
我々は,補完的な意見を提供する可能性のある専門家を識別する,共通の組織的実践に基づいて,人間とAIのコラボレーションを強化する方法を提案する。
提案手法は、一部の専門家がアルゴリズムによる評価に異を唱えるかどうかを特定することによって、生産的な不一致を活用することを目的としている。
論文 参考訳(メタデータ) (2022-04-29T20:35:07Z) - A Framework of High-Stakes Algorithmic Decision-Making for the Public
Sector Developed through a Case Study of Child-Welfare [3.739243122393041]
我々は,公共セクターに適応したアルゴリズムによる意思決定の結束的枠組みを開発する。
本研究は,児童福祉機関における日常利用におけるアルゴリズムの事例研究である。
本稿では,公共セクターにおける高精度なアルゴリズム決定ツールの設計ガイドラインを提案する。
論文 参考訳(メタデータ) (2021-07-07T21:24:35Z) - Impact Remediation: Optimal Interventions to Reduce Inequality [10.806517393212491]
我々は、既存の現実世界の格差に対処するための新しいアルゴリズムフレームワークを開発する。
本フレームワークの目的は、現実世界の格差を計測し、最適な介入ポリシーを発見することである。
最適な政策学習に関するほとんどの研究とは対照的に、格差低減自体を目的として検討する。
論文 参考訳(メタデータ) (2021-07-01T16:35:12Z) - Computability, Complexity, Consistency and Controllability: A Four C's
Framework for cross-disciplinary Ethical Algorithm Research [1.8275108630751844]
倫理的アルゴリズム文学における関連する問題に関する学際的理解の促進に有用な枠組みを考案した。
アルゴリズムの研究と設計に関わる科学において,倫理学,哲学学,集団倫理学の知見がいかに関連し,翻訳可能であるかを示す。
論文 参考訳(メタデータ) (2021-01-30T17:03:22Z) - Dimensions of Diversity in Human Perceptions of Algorithmic Fairness [37.372078500394984]
手続き的アルゴリズムフェアネスに対する人々の認識が、その人口動態や個人的経験とどのように関連しているかを考察する。
アルゴリズム決定の文脈における政治的見解と個人的な経験は、保釈決定のための異なる特徴を使用することの公平性に対する認識に大きな影響を及ぼす。
論文 参考訳(メタデータ) (2020-05-02T11:59:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。