論文の概要: Is Trust Correlated With Explainability in AI? A Meta-Analysis
- arxiv url: http://arxiv.org/abs/2504.12529v1
- Date: Wed, 16 Apr 2025 23:30:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-18 14:39:16.464468
- Title: Is Trust Correlated With Explainability in AI? A Meta-Analysis
- Title(参考訳): 信頼はAIの説明可能性と関係があるのか?メタ分析
- Authors: Zahra Atf, Peter R. Lewis,
- Abstract要約: 我々は、AI説明可能性と信頼の関係を探るため、既存の文献を網羅的に調査する。
我々の分析では、90の研究データを取り入れた結果、AIシステムの説明可能性と彼らが与える信頼との間に統計的に有意だが適度な正の相関関係が明らかとなった。
この研究は、特に説明責任の促進と、医療や司法などの重要な領域におけるユーザの信頼の促進において、社会技術的に幅広い影響を強調している。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: This study critically examines the commonly held assumption that explicability in artificial intelligence (AI) systems inherently boosts user trust. Utilizing a meta-analytical approach, we conducted a comprehensive examination of the existing literature to explore the relationship between AI explainability and trust. Our analysis, incorporating data from 90 studies, reveals a statistically significant but moderate positive correlation between the explainability of AI systems and the trust they engender among users. This indicates that while explainability contributes to building trust, it is not the sole or predominant factor in this equation. In addition to academic contributions to the field of Explainable AI (XAI), this research highlights its broader socio-technical implications, particularly in promoting accountability and fostering user trust in critical domains such as healthcare and justice. By addressing challenges like algorithmic bias and ethical transparency, the study underscores the need for equitable and sustainable AI adoption. Rather than focusing solely on immediate trust, we emphasize the normative importance of fostering authentic and enduring trustworthiness in AI systems.
- Abstract(参考訳): 本研究は、人工知能(AI)システムにおける説明可能性が本質的にユーザ信頼を高めるという一般的な仮定を批判的に考察する。
メタ分析手法を用いて,既存の文献を網羅的に検証し,AI説明可能性と信頼の関係について検討した。
分析の結果,AIシステムの説明可能性とユーザ間の信頼度との間には,統計的に有意だが適度な正の相関関係があることが判明した。
これは、説明可能性が信頼の構築に寄与する一方で、この方程式の唯一の要因あるいは支配的な要素ではないことを示している。
説明可能なAI(XAI)分野への学術的貢献に加えて、この研究は、幅広い社会技術的影響、特に説明責任の促進と、医療や司法などの重要な領域におけるユーザの信頼の促進に焦点を当てている。
アルゴリズムバイアスや倫理的透明性といった課題に対処することで、この研究は公平で持続可能なAIの採用の必要性を強調している。
直近の信頼にのみ焦点をあてるのではなく、AIシステムにおける真正性と永続的な信頼を育むことの規範的重要性を強調します。
関連論文リスト
- Trustworthy and Responsible AI for Human-Centric Autonomous Decision-Making Systems [2.444630714797783]
我々は、AIバイアス、定義、検出と緩和の方法、およびバイアスを評価するメトリクスの複雑さをレビューし、議論する。
また、人間中心の意思決定のさまざまな領域におけるAIの信頼性と広範な適用に関して、オープンな課題についても論じる。
論文 参考訳(メタデータ) (2024-08-28T06:04:25Z) - When Can You Trust Your Explanations? A Robustness Analysis on Feature Importances [42.36530107262305]
説明の堅牢性は、システムと提供された説明の両方を信頼する上で、中心的な役割を果たす。
本稿では,非対向摂動に対するニューラルネットワーク説明の頑健さを解析するための新しいアプローチを提案する。
さらに,様々な説明を集約するアンサンブル手法を提案し,モデルの決定を理解し,頑健さを評価することによって,説明の融合がいかに有用かを示す。
論文 参考訳(メタデータ) (2024-06-20T14:17:57Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - On the meaning of uncertainty for ethical AI: philosophy and practice [10.591284030838146]
これは、数学的推論に倫理的考察をもたらす重要な方法であると主張する。
我々は、2021年12月のOmicron型COVID-19の拡散について、英国政府に助言するために使用される競合モデルの文脈内でこれらのアイデアを実証する。
論文 参考訳(メタデータ) (2023-09-11T15:13:36Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - Designing for Responsible Trust in AI Systems: A Communication
Perspective [56.80107647520364]
我々は、MATCHと呼ばれる概念モデルを開発するために、技術に対する信頼に関するコミュニケーション理論と文献から引き出す。
私たちは、AIシステムの能力として透明性とインタラクションを強調します。
我々は、技術クリエーターが使用する適切な方法を特定するのに役立つ要件のチェックリストを提案する。
論文 参考訳(メタデータ) (2022-04-29T00:14:33Z) - Trust in AI and Its Role in the Acceptance of AI Technologies [12.175031903660972]
本稿では,AI技術を利用する意図に対する信頼の役割を説明する。
調査1では,大学生の質問応答に基づくAI音声アシスタントの利用における信頼感の役割について検討した。
調査2では、米国住民の代表サンプルのデータを用いて、異なる信頼の次元について検討した。
論文 参考訳(メタデータ) (2022-03-23T19:18:19Z) - Trustworthy AI [75.99046162669997]
入力データの小さな敵対的変化への脆さ、決定の説明能力、トレーニングデータのバイアスに対処する能力は、最も顕著な制限である。
我々は,AIシステムに対するユーザおよび公的な信頼を高める上での6つの重要な問題に対処するために,信頼に値するAIに関するチュートリアルを提案する。
論文 参考訳(メタデータ) (2020-11-02T20:04:18Z) - Formalizing Trust in Artificial Intelligence: Prerequisites, Causes and
Goals of Human Trust in AI [55.4046755826066]
我々は、社会学の対人信頼(すなわち、人間の信頼)に着想を得た信頼のモデルについて議論する。
ユーザとAIの間の信頼は、暗黙的あるいは明示的な契約が保持する信頼である。
我々は、信頼できるAIの設計方法、信頼が浮かび上がったかどうか、保証されているかどうかを評価する方法について論じる。
論文 参考訳(メタデータ) (2020-10-15T03:07:23Z) - The role of explainability in creating trustworthy artificial
intelligence for health care: a comprehensive survey of the terminology,
design choices, and evaluation strategies [1.2762298148425795]
透明性の欠如は、医療におけるAIシステムの実装における主要な障壁の1つとして認識されている。
我々は最近の文献をレビューし、説明可能なAIシステムの設計について研究者や実践者にガイダンスを提供する。
我々は、説明可能なモデリングが信頼できるAIに貢献できると結論づけるが、説明可能性の利点は実際に証明する必要がある。
論文 参考訳(メタデータ) (2020-07-31T09:08:27Z) - Effect of Confidence and Explanation on Accuracy and Trust Calibration
in AI-Assisted Decision Making [53.62514158534574]
ケース固有のモデル情報を明らかにする特徴が、信頼度を調整し、人間とAIのジョイントパフォーマンスを向上させることができるかどうかを検討する。
信頼スコアは、AIモデルに対する人々の信頼を校正するのに役立ちますが、信頼の校正だけでは、AI支援による意思決定を改善するには不十分です。
論文 参考訳(メタデータ) (2020-01-07T15:33:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。