論文の概要: "Even explanations will not help in trusting [this] fundamentally biased system": A Predictive Policing Case-Study
- arxiv url: http://arxiv.org/abs/2504.11020v1
- Date: Tue, 15 Apr 2025 09:43:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-16 22:07:00.703293
- Title: "Even explanations will not help in trusting [this] fundamentally biased system": A Predictive Policing Case-Study
- Title(参考訳): 根本的偏見のある制度を信頼する上では「何らかの説明は役に立たない」--「予測的分析」事例研究
- Authors: Siddharth Mehrotra, Ujwal Gadiraju, Eva Bittner, Folkert van Delden, Catholijn M. Jonker, Myrthe L. Tielman,
- Abstract要約: リスクの高いドメインにおけるAIシステムの使用は、ユーザを過度に信頼させるか、不適切な信頼または過度に信頼させる可能性がある。
過去の研究によると、AIシステムが提供する説明は、いつシステムを信頼すべきか、信頼すべきでないかをユーザーの理解を高めることができる。
本研究では,AIに基づく予測ポーリングの適切な信頼を確立する上で,さまざまな説明タイプとユーザ専門知識が与える影響について検討する。
- 参考スコア(独自算出の注目度): 8.240854389254222
- License:
- Abstract: In today's society, where Artificial Intelligence (AI) has gained a vital role, concerns regarding user's trust have garnered significant attention. The use of AI systems in high-risk domains have often led users to either under-trust it, potentially causing inadequate reliance or over-trust it, resulting in over-compliance. Therefore, users must maintain an appropriate level of trust. Past research has indicated that explanations provided by AI systems can enhance user understanding of when to trust or not trust the system. However, the utility of presentation of different explanations forms still remains to be explored especially in high-risk domains. Therefore, this study explores the impact of different explanation types (text, visual, and hybrid) and user expertise (retired police officers and lay users) on establishing appropriate trust in AI-based predictive policing. While we observed that the hybrid form of explanations increased the subjective trust in AI for expert users, it did not led to better decision-making. Furthermore, no form of explanations helped build appropriate trust. The findings of our study emphasize the importance of re-evaluating the use of explanations to build [appropriate] trust in AI based systems especially when the system's use is questionable. Finally, we synthesize potential challenges and policy recommendations based on our results to design for appropriate trust in high-risk based AI-based systems.
- Abstract(参考訳): 人工知能(AI)が重要な役割を担ってきた今日の社会では、ユーザの信頼に関する懸念が大きな注目を集めている。
リスクの高いドメインにおけるAIシステムの使用は、ユーザを過度に信頼させるか、不適切な信頼または過度に信頼させる可能性がある。
したがって、ユーザーは適切なレベルの信頼を維持する必要がある。
過去の研究によると、AIシステムが提供する説明は、いつシステムを信頼すべきか、信頼すべきでないかをユーザーの理解を高めることができる。
しかし、異なる説明形式を提示することの有用性は、特にリスクの高い領域で検討されている。
そこで本研究では,AIに基づく予測警察に対する適切な信頼を確立するために,さまざまな説明タイプ(テキスト,視覚,ハイブリッド)とユーザ専門知識(引退した警察官と一般ユーザ)が与える影響について検討する。
ハイブリッドな説明の形式は、専門家のユーザーにとってAIに対する主観的な信頼を高めたものの、より良い意思決定には至らなかった。
さらに、説明の形態は適切な信頼を築くのに役立たなかった。
本研究の結果は,特にシステム使用が疑わしい場合に,AIベースのシステムへの信頼を構築するための説明の使用を再評価することの重要性を強調した。
最後に、リスクの高いAIベースのシステムに対する適切な信頼のために設計するために、我々の結果に基づいて潜在的な課題とポリシーレコメンデーションを合成する。
関連論文リスト
- Engineering Trustworthy AI: A Developer Guide for Empirical Risk Minimization [53.80919781981027]
信頼できるAIのための重要な要件は、経験的リスク最小化のコンポーネントの設計選択に変換できる。
私たちは、AIの信頼性の新たな標準を満たすAIシステムを構築するための実用的なガイダンスを提供したいと思っています。
論文 参考訳(メタデータ) (2024-10-25T07:53:32Z) - A Diachronic Perspective on User Trust in AI under Uncertainty [52.44939679369428]
現代のNLPシステムは、しばしば未分類であり、ユーザの信頼を損なう確実な誤った予測をもたらす。
賭けゲームを用いて,信頼を損なう事象に対するユーザの信頼の進化について検討する。
論文 参考訳(メタデータ) (2023-10-20T14:41:46Z) - Who to Trust, How and Why: Untangling AI Ethics Principles,
Trustworthiness and Trust [0.0]
これらの概念をより明確に区別する必要性について論じる。
AIへの信頼は、システム自体への依存だけでなく、AIシステムの開発者への信頼も関係している、と私たちは議論する。
論文 参考訳(メタデータ) (2023-09-19T05:00:34Z) - A Systematic Literature Review of User Trust in AI-Enabled Systems: An
HCI Perspective [0.0]
人工知能(AI)のユーザ信頼は、採用を促進する重要な要素として、ますます認識され、証明されてきている。
本総説は, ユーザ信頼の定義, 影響要因, 測定方法の概要を, 実証研究23件から明らかにすることを目的としている。
論文 参考訳(メタデータ) (2023-04-18T07:58:09Z) - Designing for Responsible Trust in AI Systems: A Communication
Perspective [56.80107647520364]
我々は、MATCHと呼ばれる概念モデルを開発するために、技術に対する信頼に関するコミュニケーション理論と文献から引き出す。
私たちは、AIシステムの能力として透明性とインタラクションを強調します。
我々は、技術クリエーターが使用する適切な方法を特定するのに役立つ要件のチェックリストを提案する。
論文 参考訳(メタデータ) (2022-04-29T00:14:33Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Knowledge-intensive Language Understanding for Explainable AI [9.541228711585886]
AIが主導する意思決定の仕方と、どの決定要因が含まれているかを理解することが不可欠である。
意思決定に直接関係する人間中心の説明を持つことは重要である。
人間が理解し、使用する明示的なドメイン知識を巻き込む必要がある。
論文 参考訳(メタデータ) (2021-08-02T21:12:30Z) - Explainable Artificial Intelligence (XAI) for Increasing User Trust in
Deep Reinforcement Learning Driven Autonomous Systems [0.8701566919381223]
我々は3つの説明を提供する説明可能な人工知能(XAI)フレームワークを提供する。
我々は,XAIフレームワークのユーザインタフェースを作成し,その有効性を評価した。
論文 参考訳(メタデータ) (2021-06-07T16:38:43Z) - Trustworthy AI [75.99046162669997]
入力データの小さな敵対的変化への脆さ、決定の説明能力、トレーニングデータのバイアスに対処する能力は、最も顕著な制限である。
我々は,AIシステムに対するユーザおよび公的な信頼を高める上での6つの重要な問題に対処するために,信頼に値するAIに関するチュートリアルを提案する。
論文 参考訳(メタデータ) (2020-11-02T20:04:18Z) - Where Does Trust Break Down? A Quantitative Trust Analysis of Deep
Neural Networks via Trust Matrix and Conditional Trust Densities [94.65749466106664]
本稿では,新しい信頼量化戦略である信頼行列の概念を紹介する。
信頼行列は、所定のアクター・オークル回答シナリオに対して期待される質問・回答信頼を定義する。
我々は、条件付き信頼密度の概念により、信頼密度の概念をさらに拡張する。
論文 参考訳(メタデータ) (2020-09-30T14:33:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。