論文の概要: Explaining AI Without Code: A User Study on Explainable AI
- arxiv url: http://arxiv.org/abs/2602.11159v1
- Date: Sun, 28 Dec 2025 15:44:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-23 12:01:13.510549
- Title: Explaining AI Without Code: A User Study on Explainable AI
- Title(参考訳): コードなしでAIを説明する - 説明可能なAIに関するユーザスタディ
- Authors: Natalia Abarca, Andrés Carvallo, Claudia López Moncada, Felipe Bravo-Marquez,
- Abstract要約: 我々は、オープンソースのノーコードMLプラットフォームであるDashAIに、人間中心のXAIモジュールを提示する。
ユーザスタディは、初心者や専門家に対するユーザビリティと説明の影響を評価した。
- 参考スコア(独自算出の注目度): 1.7966001353008778
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The increasing use of Machine Learning (ML) in sensitive domains such as healthcare, finance, and public policy has raised concerns about the transparency of automated decisions. Explainable AI (XAI) addresses this by clarifying how models generate predictions, yet most methods demand technical expertise, limiting their value for novices. This gap is especially critical in no-code ML platforms, which seek to democratize AI but rarely include explainability. We present a human-centered XAI module in DashAI, an open-source no-code ML platform. The module integrates three complementary techniques, which are Partial Dependence Plots (PDP), Permutation Feature Importance (PFI), and KernelSHAP, into DashAI's workflow for tabular classification. A user study (N = 20; ML novices and experts) evaluated usability and the impact of explanations. Results show: (i) high task success ($\geq80\%$) across all explainability tasks; (ii) novices rated explanations as useful, accurate, and trustworthy on the Explanation Satisfaction Scale (ESS, Cronbach's $α$ = 0.74, a measure of internal consistency), while experts were more critical of sufficiency and completeness; and (iii) explanations improved perceived predictability and confidence on the Trust in Automation scale (TiA, $α$ = 0.60), with novices showing higher trust than experts. These findings highlight a central challenge for XAI in no-code ML, making explanations both accessible to novices and sufficiently detailed for experts.
- Abstract(参考訳): 医療、金融、公共政策といった繊細な分野における機械学習(ML)の利用の増加は、自動決定の透明性に関する懸念を引き起こしている。
説明可能なAI(XAI)は、モデルがどのように予測を生成するかを明確にすることで、この問題に対処する。
このギャップは、AIの民主化を目指す非コードMLプラットフォームでは特に重要であるが、説明可能性を含むことはめったにない。
我々は、オープンソースのノーコードMLプラットフォームであるDashAIに、人間中心のXAIモジュールを提示する。
このモジュールは、部分依存プロット(PDP)、置換特徴重要度(PFI)、およびKernelSHAPの3つの補完的テクニックをDashAIの表分類ワークフローに統合している。
ユーザスタディ(N = 20、ML初心者とエキスパート)は、ユーザビリティと説明の影響を評価した。
結果は以下の通り。
(i)すべての説明可能性タスクに対して高いタスク成功($\geq80\%$)。
(二 初心者は、説明満足度尺度(ESS, Cronbach's $α$ = 0.74, a measure of internal consistency)において、説明が有用で正確で信頼に値すると評価し、専門家は十分かつ完全性についてより批判的であった。
(3)自動化における信頼度(TiA,$α$=0.60)は,専門家よりも信頼度が高く,予測可能性や信頼度が向上した。
これらの発見は、ノコードMLにおけるXAIにおける中心的な課題を浮き彫りにしており、初心者がアクセスしやすく、専門家が十分に詳しく説明している。
関連論文リスト
- Beyond single-model XAI: aggregating multi-model explanations for enhanced trustworthiness [43.25173443756643]
本稿では,複数のモデルから抽出した特徴量集約を用いて,ロバスト性の役割について検討する。
予備的な結果は、複数のモデルの予測能力を活用しながら、アプリケーションの信頼性を高める可能性を示している。
論文 参考訳(メタデータ) (2025-10-13T08:55:45Z) - How can we trust opaque systems? Criteria for robust explanations in XAI [0.0]
ディープラーニング(DL)アルゴリズムは、日常生活や科学研究においてユビキタスになりつつある。
DLシステムが提供するデータの特徴や、最終的に正しいアウトプットを予測するのにどのように成功するのかは、一般の人々や研究者にはよく分かっていない。
信頼できる説明に必要な基準は、アルゴリズムの予測がベースとしている関連するプロセスを反映すべきであるということである。
論文 参考訳(メタデータ) (2025-08-18T04:38:55Z) - General Scales Unlock AI Evaluation with Explanatory and Predictive Power [57.7995945974989]
ベンチマークはAIの進歩を導くものだが、汎用AIシステムには限られた説明力と予測力を提供している。
私たちは、一般的なAIベンチマークが実際に何を計測しているかを説明することができる、AI評価のための一般的な尺度を紹介します。
私たちの完全に自動化された方法論は、飽和しない一般的なスケールにインスタンス要求を配置する18の新しく作られたルーリックの上に構築されます。
論文 参考訳(メタデータ) (2025-03-09T01:13:56Z) - Explainable Authorship Identification in Cultural Heritage Applications:
Analysis of a New Perspective [48.031678295495574]
既存の汎用eXplainable Artificial Intelligence(XAI)技術のAIへの応用について検討する。
特に,3種類のAIdタスクにおける3種類のXAIテクニックの相対的メリットを評価した。
我々の分析によると、これらの技術は、説明可能なオーサシップの特定に向けて重要な第一歩を踏み出すが、まだ多くの作業が続けられている。
論文 参考訳(メタデータ) (2023-11-03T20:51:15Z) - Explainable, Interpretable & Trustworthy AI for Intelligent Digital Twin: Case Study on Remaining Useful Life [0.5115559623386964]
エネルギーとエンジニアリングシステムにおけるAIの信頼性に自信を持つことは重要だ。
診断の正確な予測には、説明可能なAI(XAI)と解釈可能な機械学習(IML)が不可欠である。
論文 参考訳(メタデータ) (2023-01-17T03:17:07Z) - TRUST XAI: Model-Agnostic Explanations for AI With a Case Study on IIoT
Security [0.0]
我々は,トランスパラシー・アポン・統計理論(XAI)という普遍的XAIモデルを提案する。
TRUST XAIが, 平均成功率98%の新しいランダムサンプルについて, どのように説明するかを示す。
最後に、TRUSTがユーザに対してどのように説明されるかを示す。
論文 参考訳(メタデータ) (2022-05-02T21:44:27Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z) - Deceptive AI Explanations: Creation and Detection [3.197020142231916]
我々は、AIモデルを用いて、偽りの説明を作成し、検出する方法について検討する。
実験的な評価として,GradCAMによるテキスト分類と説明の変更に着目した。
被験者200名を対象に, 偽装説明がユーザに与える影響について検討した。
論文 参考訳(メタデータ) (2020-01-21T16:41:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。