論文の概要: Perceptions of Fairness and Trustworthiness Based on Explanations in
Human vs. Automated Decision-Making
- arxiv url: http://arxiv.org/abs/2109.05792v1
- Date: Mon, 13 Sep 2021 09:14:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-14 15:28:02.389851
- Title: Perceptions of Fairness and Trustworthiness Based on Explanations in
Human vs. Automated Decision-Making
- Title(参考訳): 人間と自動意思決定における説明に基づく公正性と信頼感の認識
- Authors: Jakob Schoeffer, Yvette Machowski, Niklas Kuehl
- Abstract要約: 自動意思決定システム(ADS)は、多くのハイテイク領域で広く普及している。
我々は200人の参加者とともにオンライン調査を行い、ADSに対する公正性と信頼性に対する人々の認識を調べる。
ADSは人間の意思決定者よりも公平だと考える人が多い。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Automated decision systems (ADS) have become ubiquitous in many high-stakes
domains. Those systems typically involve sophisticated yet opaque artificial
intelligence (AI) techniques that seldom allow for full comprehension of their
inner workings, particularly for affected individuals. As a result, ADS are
prone to deficient oversight and calibration, which can lead to undesirable
(e.g., unfair) outcomes. In this work, we conduct an online study with 200
participants to examine people's perceptions of fairness and trustworthiness
towards ADS in comparison to a scenario where a human instead of an ADS makes a
high-stakes decision -- and we provide thorough identical explanations
regarding decisions in both cases. Surprisingly, we find that people perceive
ADS as fairer than human decision-makers. Our analyses also suggest that
people's AI literacy affects their perceptions, indicating that people with
higher AI literacy favor ADS more strongly over human decision-makers, whereas
low-AI-literacy people exhibit no significant differences in their perceptions.
- Abstract(参考訳): 自動意思決定システム(ADS)は、多くのハイテイク領域で広く普及している。
これらのシステムには一般的に高度な不透明な人工知能(ai)技術が含まれており、特に影響を受けた個人に対して内部動作を完全に理解することがほとんどない。
その結果、ADSは監視と校正を欠く傾向にあり、望ましくない結果(例えば不公平な結果)をもたらす可能性がある。
本研究では,200人の参加者を対象にオンライン調査を行い,ADSの代わりに人間が高い判断を下すシナリオと比較して,ADSに対する公正性と信頼感に対する人々の認識を検討する。
意外なことに、ADSは人間の意思決定者よりも公平だと感じている。
我々の分析は、人のAIリテラシーが彼らの知覚に影響を及ぼすことを示唆し、AIリテラシーの高い人は、人間の意思決定者よりもADSを強く支持する一方で、低AIリテラシーの人々は、彼らの知覚に顕著な違いを示さないことを示している。
関連論文リスト
- Raising the Stakes: Performance Pressure Improves AI-Assisted Decision Making [57.53469908423318]
日常の人が共通のAI支援タスクを完了すると、パフォーマンスプレッシャーがAIアドバイスへの依存に与える影響を示す。
利害関係が高い場合には、AIの説明の有無にかかわらず、利害関係が低い場合よりもAIアドバイスを適切に使用することが分かりました。
論文 参考訳(メタデータ) (2024-10-21T22:39:52Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Improving Human-AI Collaboration With Descriptions of AI Behavior [14.904401331154062]
人々はAIシステムを使って意思決定を改善するが、しばしばAIの予測を過度に、あるいは過度に予測し、手伝わなかったよりも悪いパフォーマンスをする。
人々がAIアシスタントを適切に頼りにするために、行動記述を示すことを提案する。
論文 参考訳(メタデータ) (2023-01-06T00:33:08Z) - Improving Human-AI Partnerships in Child Welfare: Understanding Worker
Practices, Challenges, and Desires for Algorithmic Decision Support [37.03030554731032]
児童福祉機関の一連のインタビューから得られた知見を,現在どのようにAI支援による児童虐待スクリーニングの意思決定を行っているかを理解するために提示する。
我々は,(1)AIモデルが捉える以上のリッチで文脈的な情報に対する労働者の信頼,(2)AIモデルの能力と限界に対する信念,(4)アルゴリズム的予測とそれ自身の意思決定目標との相違点の認識によって,労働者のADSへの信頼がいかに導かれるかを観察する。
論文 参考訳(メタデータ) (2022-04-05T16:10:49Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Intelligent Decision Assistance Versus Automated Decision-Making:
Enhancing Knowledge Work Through Explainable Artificial Intelligence [0.0]
我々は,新たなDSSクラス,すなわち知能決定支援(IDA)を提案する。
IDAは、自動意思決定を通じて知識労働者に影響を与えることなく、知識労働者をサポートする。
具体的には、具体的なAIレコメンデーションを保ちながら、説明可能なAI(XAI)の技術を使用することを提案する。
論文 参考訳(メタデータ) (2021-09-28T15:57:21Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - The human-AI relationship in decision-making: AI explanation to support
people on justifying their decisions [4.169915659794568]
人々は、AIがどのように機能するか、そしてそのシステムとの関係を構築するために、その成果をもっと意識する必要があります。
意思決定のシナリオでは、人々はAIがどのように機能するか、そしてそのシステムとの関係を構築する結果についてもっと意識する必要があります。
論文 参考訳(メタデータ) (2021-02-10T14:28:34Z) - Effect of Confidence and Explanation on Accuracy and Trust Calibration
in AI-Assisted Decision Making [53.62514158534574]
ケース固有のモデル情報を明らかにする特徴が、信頼度を調整し、人間とAIのジョイントパフォーマンスを向上させることができるかどうかを検討する。
信頼スコアは、AIモデルに対する人々の信頼を校正するのに役立ちますが、信頼の校正だけでは、AI支援による意思決定を改善するには不十分です。
論文 参考訳(メタデータ) (2020-01-07T15:33:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。