論文の概要: Preliminary Quantitative Study on Explainability and Trust in AI Systems
- arxiv url: http://arxiv.org/abs/2510.15769v1
- Date: Fri, 17 Oct 2025 15:59:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-20 20:17:34.697144
- Title: Preliminary Quantitative Study on Explainability and Trust in AI Systems
- Title(参考訳): AIシステムの説明可能性と信頼に関する予備的定量的研究
- Authors: Allen Daniel Sunny,
- Abstract要約: GPT-4のような大規模AIモデルは、法律、医療、金融といった重要な領域にまたがる人工知能の展開を加速している。
本研究では,定量的な実験設計を通じて,AIシステムにおける説明可能性とユーザ信頼の関係について検討する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large-scale AI models such as GPT-4 have accelerated the deployment of artificial intelligence across critical domains including law, healthcare, and finance, raising urgent questions about trust and transparency. This study investigates the relationship between explainability and user trust in AI systems through a quantitative experimental design. Using an interactive, web-based loan approval simulation, we compare how different types of explanations, ranging from basic feature importance to interactive counterfactuals influence perceived trust. Results suggest that interactivity enhances both user engagement and confidence, and that the clarity and relevance of explanations are key determinants of trust. These findings contribute empirical evidence to the growing field of human-centered explainable AI, highlighting measurable effects of explainability design on user perception
- Abstract(参考訳): GPT-4のような大規模AIモデルは、法律、医療、財務といった重要な領域にAIを配置し、信頼と透明性に関する緊急の疑問を提起している。
本研究では,定量的な実験設計を通じて,AIシステムにおける説明可能性とユーザ信頼の関係について検討する。
対話型 Web ベースの融資承認シミュレーションを用いて,基本的特徴の重要性から対話型カウンターファクトアルまで,さまざまなタイプの説明が信頼にどのように影響するかを比較する。
その結果,対話性はユーザのエンゲージメントと信頼を両立させ,説明の明確さと妥当性は信頼の鍵となる決定要因であることが示唆された。
これらの知見は、人間中心で説明可能なAIの発達領域に実証的証拠をもたらし、説明可能性設計がユーザ知覚に与える影響を明らかにする。
関連論文リスト
- When Models Know More Than They Can Explain: Quantifying Knowledge Transfer in Human-AI Collaboration [79.69935257008467]
我々は,人間とAIの知識伝達能力に関する概念的かつ実験的フレームワークである知識統合と伝達評価(KITE)を紹介する。
最初の大規模人間実験(N=118)を行い,その測定を行った。
2段階のセットアップでは、まずAIを使って問題解決戦略を思いつき、その後独立してソリューションを実装し、モデル説明が人間の理解に与える影響を分離します。
論文 参考訳(メタデータ) (2025-06-05T20:48:16Z) - Would You Rely on an Eerie Agent? A Systematic Review of the Impact of the Uncanny Valley Effect on Trust in Human-Agent Interaction [2.184775414778289]
アンカニー・バレー・エフェクト(英: Uncanny Valley Effect、UVE)は、人間のような人工的な生物が不気味さや忌避感を感じる現象である。
信頼とUVEへの関心が高まっているにもかかわらず、既存の研究はこれらの概念がどのように定義され、どのように運用されるかという点で広範囲に及んでいる。
本総説は,UVEがエージェントに対するヒトの信頼に与える影響を検証し,既存の実証文献の方法論的パターン,限界,ギャップを明らかにすることを目的とする。
論文 参考訳(メタデータ) (2025-05-08T17:03:26Z) - Is Trust Correlated With Explainability in AI? A Meta-Analysis [0.0]
我々は、AI説明可能性と信頼の関係を探るため、既存の文献を網羅的に調査する。
我々の分析では、90の研究データを取り入れた結果、AIシステムの説明可能性と彼らが与える信頼との間に統計的に有意だが適度な正の相関関係が明らかとなった。
この研究は、特に説明責任の促進と、医療や司法などの重要な領域におけるユーザの信頼の促進において、社会技術的に幅広い影響を強調している。
論文 参考訳(メタデータ) (2025-04-16T23:30:55Z) - Decoding Susceptibility: Modeling Misbelief to Misinformation Through a Computational Approach [61.04606493712002]
誤報に対する感受性は、観測不可能な不検証の主張に対する信念の度合いを記述している。
既存の感受性研究は、自己報告された信念に大きく依存している。
本稿では,ユーザの潜在感受性レベルをモデル化するための計算手法を提案する。
論文 参考訳(メタデータ) (2023-11-16T07:22:56Z) - Requirements for Explainability and Acceptance of Artificial
Intelligence in Collaborative Work [0.0]
本稿では,AIの説明可能性と受容の要件について考察する。
その結果,2つの主要なグループが,モデルの内部操作に関する情報を必要とする開発者であることが示唆された。
AIシステムの受容は、システムの機能や性能、プライバシ、倫理的考慮事項に関する情報に依存する。
論文 参考訳(メタデータ) (2023-06-27T11:36:07Z) - Improving Model Understanding and Trust with Counterfactual Explanations
of Model Confidence [4.385390451313721]
人間とエージェントのインタラクションシステムにおける信頼度を示すことは、人間とAIシステムの信頼を構築するのに役立つ。
既存の研究の多くは、信頼度スコアをコミュニケーションの形式としてのみ用いた。
本稿では, モデル信頼度を理解するための2つの手法を提案する。
論文 参考訳(メタデータ) (2022-06-06T04:04:28Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z) - A Study on Multimodal and Interactive Explanations for Visual Question
Answering [3.086885687016963]
視覚質問応答(VQA)タスクの設定において,マルチモーダルな説明を評価する。
結果は,VQAシステムの解答が不正確である場合に,人間の予測精度の向上に役立つことを示唆している。
本稿では,注意マップの編集による介入による因果的注意効果評価手法であるアクティブアテンションを導入する。
論文 参考訳(メタデータ) (2020-03-01T07:54:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。