論文の概要: Who Gets What, According to Whom? An Analysis of Fairness Perceptions in
Service Allocation
- arxiv url: http://arxiv.org/abs/2105.04452v1
- Date: Mon, 10 May 2021 15:31:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-31 23:21:38.809511
- Title: Who Gets What, According to Whom? An Analysis of Fairness Perceptions in
Service Allocation
- Title(参考訳): 誰が何を得るんだ?
サービス割当における公平感の分析
- Authors: Jacqueline Hannan, Huei-Yen Winnie Chen, Kenneth Joseph
- Abstract要約: 公正感の「Who」と「What」と「How」の交点における5つの新しい研究課題を実験的に検討した。
以上の結果から,少なくとも1つの理論的な視点では説明できない「Who」と「What」は,公正さの認識をどのように測定するか,あるいはアルゴリズムによる意思決定システムに統合すべきかに重要な意味を持っていることが示唆された。
- 参考スコア(独自算出の注目度): 2.69180747382622
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Algorithmic fairness research has traditionally been linked to the
disciplines of philosophy, ethics, and economics, where notions of fairness are
prescriptive and seek objectivity. Increasingly, however, scholars are turning
to the study of what different people perceive to be fair, and how these
perceptions can or should help to shape the design of machine learning,
particularly in the policy realm. The present work experimentally explores five
novel research questions at the intersection of the "Who," "What," and "How" of
fairness perceptions. Specifically, we present the results of a multi-factor
conjoint analysis study that quantifies the effects of the specific context in
which a question is asked, the framing of the given question, and who is
answering it. Our results broadly suggest that the "Who" and "What," at least,
matter in ways that are 1) not easily explained by any one theoretical
perspective, 2) have critical implications for how perceptions of fairness
should be measured and/or integrated into algorithmic decision-making systems.
- Abstract(参考訳): アルゴリズムフェアネス研究は伝統的に哲学、倫理、経済学の分野と結びついており、公正の概念は規範的で客観性を求める。
しかし、学者たちはますます、異なる人々が公正であると感じているもの、そしてこれらの認識が、特に政策領域において、機械学習の設計を形作るのにどのように役立つかの研究に目を向けている。
本研究は, 公正感の「Who」「What」「How」の交点における5つの新しい研究課題を実験的に探求する。
具体的には,質問が質問された特定の文脈,質問のフレーミング,回答者の効果を定量化する多因子コンジョイント分析の結果を示す。
我々の結果は、少なくとも、ある意味では、"Who"と"What"が重要であることを広く示唆している。
1) 理論上の見地から簡単に説明できないこと。
2)公平感の計測や,アルゴリズム的意思決定システムへの統合について,重要な意味を持つ。
関連論文リスト
- The Odyssey of Commonsense Causality: From Foundational Benchmarks to Cutting-Edge Reasoning [70.16523526957162]
常識の因果関係を理解することは、人々が現実世界の原理をよりよく理解するのに役立ちます。
その重要性にもかかわらず、このトピックの体系的な探索は特に欠落している。
本研究の目的は、体系的な概要の提供、最近の進歩に関する学者の更新、初心者のための実践的なガイドを提供することである。
論文 参考訳(メタデータ) (2024-06-27T16:30:50Z) - (Unfair) Norms in Fairness Research: A Meta-Analysis [6.395584220342517]
我々は,AIフェアネスと倫理に関する2つの主要なカンファレンスから,アルゴリズムフェアネス論文のメタ分析を行う。
まず、米国中心の視点が公正調査全体において支配的な傾向を示す。
第二に、公正性の研究は、人間のアイデンティティの二項結合に広く依存している。
論文 参考訳(メタデータ) (2024-06-17T17:14:47Z) - Reconciling Predictive and Statistical Parity: A Causal Approach [68.59381759875734]
本稿では,予測パリティに付随する公平度対策のための因果分解式を提案する。
統計的および予測パリティの概念は、実際には互いに排他的ではなく、相補的であり、公正の概念のスペクトルにまたがっていることを示す。
論文 参考訳(メタデータ) (2023-06-08T09:23:22Z) - Factoring the Matrix of Domination: A Critical Review and Reimagination
of Intersectionality in AI Fairness [55.037030060643126]
間欠性は、社会的不平等の持続性を調べるための重要な枠組みである。
我々は、公平性を効果的に運用するために、交差性を分析的枠組みとして採用することが重要であると論じる。
論文 参考訳(メタデータ) (2023-03-16T21:02:09Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - Developing a Philosophical Framework for Fair Machine Learning: Lessons
From The Case of Algorithmic Collusion [0.0]
機械学習アルゴリズムが新しい文脈に適用されるにつれて、結果の害と不正は質的に異なる。
フェアネスのメトリクスと定義を開発する機械学習における既存の研究パラダイムは、これらの質的に異なる種類の不正を考慮できない。
本稿では,公正度指標の開発と適用を目指す機械学習の研究者や実践者を対象とした倫理的枠組みを提案する。
論文 参考訳(メタデータ) (2022-07-05T16:21:56Z) - What-is and How-to for Fairness in Machine Learning: A Survey,
Reflection, and Perspective [13.124434298120494]
機械学習文学においてこれまで提案されてきたフェアネスの概念を概観し,考察する。
また、現在の予測と決定によって引き起こされる長期的な影響についても検討する。
本稿では、目的を達成するために、ミッション(どんな公正を強制したいのか)と手段(どの公正分析が興味を持つのか)を一致させることの重要性を示す。
論文 参考訳(メタデータ) (2022-06-08T18:05:46Z) - Fairness in Recommender Systems: Research Landscape and Future
Directions [119.67643184567623]
本稿は,近年の地域におけるフェアネスの概念と概念について概観する。
この分野での研究が現在どのように行われているのかを概観する。
全体として、最近の研究成果の分析は、ある研究のギャップを示している。
論文 参考訳(メタデータ) (2022-05-23T08:34:25Z) - The FairCeptron: A Framework for Measuring Human Perceptions of
Algorithmic Fairness [1.4449464910072918]
FairCeptronフレームワークは、ランク付けや分類のようなアルゴリズムによる意思決定における公平さの知覚を研究するためのアプローチである。
このフレームワークは、公正シナリオ生成、公正知覚誘発、公正知覚分析を含む。
FairCeptronフレームワークの実装は公開されており、他のアプリケーションコンテキストにおけるアルゴリズム的公正性の認識に容易に適応することができる。
論文 参考訳(メタデータ) (2021-02-08T10:47:24Z) - On Consequentialism and Fairness [64.35872952140677]
機械学習におけるフェアネスの共通定義について、逐次的批判を行う。
学習とランダム化の問題に関するより広範な議論で締めくくります。
論文 参考訳(メタデータ) (2020-01-02T05:39:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。