論文の概要: "There Is Not Enough Information": On the Effects of Explanations on
Perceptions of Informational Fairness and Trustworthiness in Automated
Decision-Making
- arxiv url: http://arxiv.org/abs/2205.05758v1
- Date: Wed, 11 May 2022 20:06:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-13 14:26:35.185176
- Title: "There Is Not Enough Information": On the Effects of Explanations on
Perceptions of Informational Fairness and Trustworthiness in Automated
Decision-Making
- Title(参考訳): 『十分な情報がない』:自動意思決定における情報フェアネスと信頼感の知覚に及ぼす説明の影響
- Authors: Jakob Schoeffer, Niklas Kuehl, Yvette Machowski
- Abstract要約: 自動意思決定システム(ADS)は、連続的な意思決定にますます利用されている。
我々は,情報の公平さに対する人々の認識を評価するために,人間による研究を行う。
定性的フィードバックの包括的分析は、説明のために人々のデシラタに光を当てる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Automated decision systems (ADS) are increasingly used for consequential
decision-making. These systems often rely on sophisticated yet opaque machine
learning models, which do not allow for understanding how a given decision was
arrived at. In this work, we conduct a human subject study to assess people's
perceptions of informational fairness (i.e., whether people think they are
given adequate information on and explanation of the process and its outcomes)
and trustworthiness of an underlying ADS when provided with varying types of
information about the system. More specifically, we instantiate an ADS in the
area of automated loan approval and generate different explanations that are
commonly used in the literature. We randomize the amount of information that
study participants get to see by providing certain groups of people with the
same explanations as others plus additional explanations. From our quantitative
analyses, we observe that different amounts of information as well as people's
(self-assessed) AI literacy significantly influence the perceived informational
fairness, which, in turn, positively relates to perceived trustworthiness of
the ADS. A comprehensive analysis of qualitative feedback sheds light on
people's desiderata for explanations, among which are (i) consistency (both
with people's expectations and across different explanations), (ii) disclosure
of monotonic relationships between features and outcome, and (iii)
actionability of recommendations.
- Abstract(参考訳): 自動意思決定システム(ADS)は、連続的な意思決定にますます利用されている。
これらのシステムは、しばしば洗練されたが不透明な機械学習モデルに依存しており、与えられた決定がどのように到達したかを理解することができない。
本研究は,情報公平性(プロセスとその成果の適切な情報提供や説明を行うか否か)に対する人々の認識と,システムに関する様々な種類の情報を提供する場合の基盤となるADSの信頼性を評価するために,人間による研究を行う。
より具体的には、自動融資承認の領域でADSをインスタンス化し、文献で一般的に使用されるさまざまな説明を生成する。
参加者が見ることのできる情報の量をランダム化するために、あるグループに他のグループと同じ説明と追加の説明を加える。
定量的分析から、人々の(自己評価された)AIリテラシーだけでなく、さまざまな情報量も、知覚された情報公正性に大きく影響し、その結果、ADSの信頼感に肯定的に関係していることが明らかとなった。
定性的フィードバックの包括的分析は、説明のために人々のデシラタに光を当てる
(i)一貫性(人々の期待と異なる説明の両方)
(二)特徴と結果の単調な関係の開示、及び
(iii)推薦の実施性。
関連論文リスト
- Information That Matters: Exploring Information Needs of People Affected by Algorithmic Decisions [11.421963387588864]
XAInovice Question Bankは、AI初心者に必要な情報カタログを含むXAI Question Bankの拡張である。
「XAInovice Question Bank」には、雇用予測と健康モニタリングの2つのユースケースにおいて、AI初心者に必要な情報のカタログが含まれている。
我々の研究は、情報ニーズ、目標、課題を強調することで、説明可能性へのAI初心者の関与を支援することを目的としています。
論文 参考訳(メタデータ) (2024-01-24T09:39:39Z) - Revisiting Self-supervised Learning of Speech Representation from a
Mutual Information Perspective [68.20531518525273]
我々は、情報理論の観点から、既存の自己教師型音声の手法を詳しく検討する。
我々は線形プローブを用いて、対象情報と学習された表現の間の相互情報を推定する。
我々は、ラベルを使わずに、データの異なる部分間の相互情報を見積もる自己教師型の表現を評価する可能性を探る。
論文 参考訳(メタデータ) (2024-01-16T21:13:22Z) - Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - Requirements for Explainability and Acceptance of Artificial
Intelligence in Collaborative Work [0.0]
本稿では,AIの説明可能性と受容の要件について考察する。
その結果,2つの主要なグループが,モデルの内部操作に関する情報を必要とする開発者であることが示唆された。
AIシステムの受容は、システムの機能や性能、プライバシ、倫理的考慮事項に関する情報に依存する。
論文 参考訳(メタデータ) (2023-06-27T11:36:07Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - Explainable Predictive Process Monitoring: A User Evaluation [62.41400549499849]
説明責任は、ブラックボックス機械学習アプローチの透明性の欠如によって動機付けられている。
予測プロセスモニタリングのための説明手法のユーザ評価を行う。
論文 参考訳(メタデータ) (2022-02-15T22:24:21Z) - Uncertainty Quantification of Surrogate Explanations: an Ordinal
Consensus Approach [1.3750624267664155]
我々は, 多様な自己記述型サロゲート説明器の集合間のコンセンサスを測定することによって, 与えられた説明の不確かさを推定する。
我々は、最先端の畳み込みニューラルネットワークアンサンブルの実験を通して、このアプローチの特性を実証的に説明する。
論文 参考訳(メタデータ) (2021-11-17T13:55:58Z) - Perceptions of Fairness and Trustworthiness Based on Explanations in
Human vs. Automated Decision-Making [0.0]
自動意思決定システム(ADS)は、多くのハイテイク領域で広く普及している。
我々は200人の参加者とともにオンライン調査を行い、ADSに対する公正性と信頼性に対する人々の認識を調べる。
ADSは人間の意思決定者よりも公平だと考える人が多い。
論文 参考訳(メタデータ) (2021-09-13T09:14:15Z) - Appropriate Fairness Perceptions? On the Effectiveness of Explanations
in Enabling People to Assess the Fairness of Automated Decision Systems [0.0]
効果的に説明するためには、基礎となるADSが公正である場合に限り、公平性に対する認識が増加するべきであると論じる。
本研究は, 適切な公正感のデシプラタムを導入し, 評価のための新しい研究設計を提案し, 総合的な実験に向けての次のステップを概説する。
論文 参考訳(メタデータ) (2021-08-14T09:39:59Z) - Conditional Contrastive Learning: Removing Undesirable Information in
Self-Supervised Representations [108.29288034509305]
我々は,自己指導型表現において望ましくない情報を除去するために,条件付きコントラスト学習を開発する。
提案手法は,下流タスクの自己教師付き表現をうまく学習できることを実証的に実証する。
論文 参考訳(メタデータ) (2021-06-05T10:51:26Z) - Individual Explanations in Machine Learning Models: A Survey for
Practitioners [69.02688684221265]
社会的関連性の高い領域の決定に影響を与える洗練された統計モデルの使用が増加しています。
多くの政府、機関、企業は、アウトプットが人間の解釈可能な方法で説明しにくいため、採用に消極的です。
近年,機械学習モデルに解釈可能な説明を提供する方法として,学術文献が多数提案されている。
論文 参考訳(メタデータ) (2021-04-09T01:46:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。