論文の概要: A Study on Fairness and Trust Perceptions in Automated Decision Making
- arxiv url: http://arxiv.org/abs/2103.04757v1
- Date: Mon, 8 Mar 2021 13:57:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-09 16:47:26.508909
- Title: A Study on Fairness and Trust Perceptions in Automated Decision Making
- Title(参考訳): 自動意思決定における公正性と信頼感に関する研究
- Authors: Jakob Schoeffer, Yvette Machowski, Niklas Kuehl
- Abstract要約: 我々は, 公平性と信頼性に対する人々の認識に対する影響について, 自動意思決定システムを説明する様々な試みを評価した。
パイロット研究では、驚くべき定性的な洞察だけでなく、大きな主な研究で検証、拡張、そして徹底的に議論されなければならない予備的な重要な効果も明らかにしました。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Automated decision systems are increasingly used for consequential decision
making -- for a variety of reasons. These systems often rely on sophisticated
yet opaque models, which do not (or hardly) allow for understanding how or why
a given decision was arrived at. This is not only problematic from a legal
perspective, but non-transparent systems are also prone to yield undesirable
(e.g., unfair) outcomes because their sanity is difficult to assess and
calibrate in the first place. In this work, we conduct a study to evaluate
different attempts of explaining such systems with respect to their effect on
people's perceptions of fairness and trustworthiness towards the underlying
mechanisms. A pilot study revealed surprising qualitative insights as well as
preliminary significant effects, which will have to be verified, extended and
thoroughly discussed in the larger main study.
- Abstract(参考訳): 自動意思決定システムは、様々な理由で、連続的な意思決定にますます使われています。
これらのシステムは、しばしば洗練された不透明なモデルに依存しており、ある決定が到着した理由を理解できない(あるいはほとんど)。
これは法的観点から問題となるだけでなく、非トランスペアレントなシステムは、まずは健全性の評価や調整が難しいため、望ましくない結果(例えば不公平な結果)をもたらす傾向があります。
本研究では,このようなシステムを説明するための様々な試みが,そのメカニズムに対する公平性と信頼感に対する人々の認識に与える影響について評価する。
パイロット研究では、驚くべき定性的な洞察だけでなく、大きな主な研究で検証、拡張、そして徹底的に議論されなければならない予備的な重要な効果も明らかにしました。
関連論文リスト
- Understanding Fairness in Recommender Systems: A Healthcare Perspective [0.18416014644193066]
本稿では,医療レコメンデーションにおける公正に対する一般の理解について考察する。
参加者は4つのフェアネス指標から選択した。
その結果, 公平性に対する一大アプローチが不十分である可能性が示唆された。
論文 参考訳(メタデータ) (2024-09-05T19:59:42Z) - Auditing Fairness under Unobserved Confounding [56.61738581796362]
リスクファクターがすべて観察されているという仮定を完全に取り除いたり緩和したりしても、ハイリスクな個人に治療率に有意義な限界を与えることができることを示す。
既存の意思決定システムの不公平な結果を原則的に評価することができる。
論文 参考訳(メタデータ) (2024-03-18T21:09:06Z) - Equal Confusion Fairness: Measuring Group-Based Disparities in Automated
Decision Systems [5.076419064097733]
本稿では,公正度の自動判定システムをチェックするための等混乱公正度試験と,不公平度を定量化するための新しい混乱パリティ誤差を提案する。
全体として、ここで提供される方法とメトリクスは、より広範な説明責任評価の一環として、自動決定システムの公正性を評価することができる。
論文 参考訳(メタデータ) (2023-07-02T04:44:19Z) - Causal Fairness for Outcome Control [68.12191782657437]
本稿では,自動システムにおいて,公平かつ公平な結果変数を最適化することを目的とした,結果制御と呼ばれる特定の意思決定タスクについて検討する。
本稿では、まず因果レンズを通して利益の概念を分析し、特定の個人が肯定的な決定によってどれだけの利益を得られるかを明らかにする。
次に、保護された属性の影響を受けている可能性があることに留意し、これを分析するために使用できる因果的ツールを提案する。
論文 参考訳(メタデータ) (2023-06-08T09:31:18Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - A Human-Centric Perspective on Fairness and Transparency in Algorithmic
Decision-Making [0.0]
自動意思決定システム(ADS)は、連続的な意思決定にますます利用されている。
非透明なシステムは、健全性の評価と校正が難しいため、不公平な結果をもたらす傾向にある。
私は博士論文を通じて以下の3つの主要な貢献をしたいと考えています。
論文 参考訳(メタデータ) (2022-04-29T18:31:04Z) - Appropriate Fairness Perceptions? On the Effectiveness of Explanations
in Enabling People to Assess the Fairness of Automated Decision Systems [0.0]
効果的に説明するためには、基礎となるADSが公正である場合に限り、公平性に対する認識が増加するべきであると論じる。
本研究は, 適切な公正感のデシプラタムを導入し, 評価のための新しい研究設計を提案し, 総合的な実験に向けての次のステップを概説する。
論文 参考訳(メタデータ) (2021-08-14T09:39:59Z) - Individual Explanations in Machine Learning Models: A Survey for
Practitioners [69.02688684221265]
社会的関連性の高い領域の決定に影響を与える洗練された統計モデルの使用が増加しています。
多くの政府、機関、企業は、アウトプットが人間の解釈可能な方法で説明しにくいため、採用に消極的です。
近年,機械学習モデルに解釈可能な説明を提供する方法として,学術文献が多数提案されている。
論文 参考訳(メタデータ) (2021-04-09T01:46:34Z) - Uncertainty as a Form of Transparency: Measuring, Communicating, and
Using Uncertainty [66.17147341354577]
我々は,モデル予測に関連する不確実性を推定し,伝達することにより,相補的な透明性の形式を考えることについて議論する。
モデルの不公平性を緩和し、意思決定を強化し、信頼できるシステムを構築するために不確実性がどのように使われるかを説明する。
この研究は、機械学習、可視化/HCI、デザイン、意思決定、公平性にまたがる文学から引き出された学際的レビューを構成する。
論文 参考訳(メタデータ) (2020-11-15T17:26:14Z) - On Consequentialism and Fairness [64.35872952140677]
機械学習におけるフェアネスの共通定義について、逐次的批判を行う。
学習とランダム化の問題に関するより広範な議論で締めくくります。
論文 参考訳(メタデータ) (2020-01-02T05:39:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。