論文の概要: Reversing the Lens: Using Explainable AI to Understand Human Expertise
- arxiv url: http://arxiv.org/abs/2510.13814v2
- Date: Fri, 21 Nov 2025 19:38:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-07 19:06:32.064511
- Title: Reversing the Lens: Using Explainable AI to Understand Human Expertise
- Title(参考訳): レンズの逆転:説明可能なAIを使って人間の専門知識を理解する
- Authors: Roussel Rahman, Aashwin Ananda Mishra, Wan-Lin Hu,
- Abstract要約: 人間と機械学習モデルの両方は、特に安全性と信頼性に重要な領域において、経験から学習する。
この研究は、人間の学習を分析するためにExplainable AIの計算ツールを適用することで、これらの領域を橋渡しする。
- 参考スコア(独自算出の注目度): 0.9999629695552193
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Both humans and machine learning models learn from experience, particularly in safety- and reliability-critical domains. While psychology seeks to understand human cognition, the field of Explainable AI (XAI) develops methods to interpret machine learning models. This study bridges these domains by applying computational tools from XAI to analyze human learning. We modeled human behavior during a complex real-world task -- tuning a particle accelerator -- by constructing graphs of operator subtasks. Applying techniques such as community detection and hierarchical clustering to archival operator data, we reveal how operators decompose the problem into simpler components and how these problem-solving structures evolve with expertise. Our findings illuminate how humans develop efficient strategies in the absence of globally optimal solutions, and demonstrate the utility of XAI-based methods for quantitatively studying human cognition.
- Abstract(参考訳): 人間と機械学習モデルの両方は、特に安全性と信頼性に重要な領域において、経験から学習する。
心理学は人間の認知を理解しようとするが、説明可能なAI(XAI)の分野は機械学習モデルを解釈する手法を開発する。
この研究は、XAIから計算ツールを適用して、人間の学習を分析することによって、これらの領域を橋渡しする。
我々は、演算子サブタスクのグラフを構築することによって、複雑な実世界のタスク(粒子加速器のチューニング)中の人間の振る舞いをモデル化した。
コミュニティ検出や階層的クラスタリングといった手法をアーキバル演算子データに適用することにより、演算子が問題をより単純なコンポーネントに分解し、これらの問題解決構造が専門知識でどのように進化するかを明らかにする。
本研究は,地球規模の最適解が存在しない場合にヒトが効率的な戦略を開発する方法を示し,人間の認知を定量的に研究するためのXAI法の有用性を実証するものである。
関連論文リスト
- A Comprehensive Perspective on Explainable AI across the Machine Learning Workflow [1.269939585263915]
Holistic Explainable Artificial Intelligence (HXAI)は、データ分析ワークフローのすべてのステージに説明を埋め込む、ユーザ中心のフレームワークである。
HXAIは6つのコンポーネント(データ、分析設定、学習プロセス、モデル出力、モデル品質、通信チャネル)を単一の分類体系に統合する。
112項目の質問銀行がこれらのニーズをカバーしています。
論文 参考訳(メタデータ) (2025-08-15T15:15:25Z) - User-centric evaluation of explainability of AI with and for humans: a comprehensive empirical study [5.775094401949666]
この研究はHuman-Centered Artificial Intelligence (HCAI)にある。
一般的に使用されるeXplainable Artificial Intelligence (XAI)アルゴリズムのユーザ中心評価の結果に焦点を当てている。
論文 参考訳(メタデータ) (2024-10-21T12:32:39Z) - Incremental procedural and sensorimotor learning in cognitive humanoid
robots [52.77024349608834]
本研究は,手順を段階的に学習する認知エージェントを提案する。
各サブステージで必要とされる認知機能と, エージェントが未解決の課題に, 新たな機能の追加がどう対処するかを示す。
結果は、このアプローチが複雑なタスクを段階的に解くことができることを示している。
論文 参考訳(メタデータ) (2023-04-30T22:51:31Z) - BO-Muse: A human expert and AI teaming framework for accelerated
experimental design [58.61002520273518]
我々のアルゴリズムは、人間の専門家が実験プロセスでリードすることを可能にする。
我々のアルゴリズムは、AIや人間よりも高速に、サブ線形に収束することを示す。
論文 参考訳(メタデータ) (2023-03-03T02:56:05Z) - Interpreting Neural Policies with Disentangled Tree Representations [58.769048492254555]
本稿では,コンパクトなニューラルポリシーの解釈可能性について,不整合表現レンズを用いて検討する。
決定木を利用して,ロボット学習における絡み合いの要因を抽出する。
学習したニューラルダイナミクスの絡み合いを計測する解釈可能性指標を導入する。
論文 参考訳(メタデータ) (2022-10-13T01:10:41Z) - Towards Explainable Artificial Intelligence in Banking and Financial
Services [0.0]
説明可能な人工知能(XAI)の手法とツールを用いた最近の研究を研究・分析する。
我々は,高レベルの学習性能を維持しつつ,説明可能なモデルの作成を容易にする新しいXAIプロセスを導入する。
我々は,アルゴリズム結果との対話を容易にするデジタルダッシュボードを開発した。
論文 参考訳(メタデータ) (2021-12-14T08:02:13Z) - Human-Centered Explainable AI (XAI): From Algorithms to User Experiences [29.10123472973571]
説明可能なAI(XAI)は近年,膨大なアルゴリズムコレクションを生み出している。
分野は学際的視点と人間中心のアプローチを受け入れ始めている。
論文 参考訳(メタデータ) (2021-10-20T21:33:46Z) - Learning to Complement Humans [67.38348247794949]
オープンワールドにおけるAIに対するビジョンの高まりは、知覚、診断、推論タスクのために人間を補完できるシステムの開発に焦点を当てている。
我々は,人間-機械チームの複合的なパフォーマンスを最適化するために,エンド・ツー・エンドの学習戦略をどのように活用できるかを実証する。
論文 参考訳(メタデータ) (2020-05-01T20:00:23Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z) - Leveraging Rationales to Improve Human Task Performance [15.785125079811902]
計算システムの性能が人間のユーザを上回ることを考えれば、人間のパフォーマンスを改善するために説明可能なAI能力を活用することができるだろうか?
本稿では,ユーティリティベースの計算手法の合理性を自動生成するRationale-Generating Algorithmを紹介する。
以上の結果から,本手法は人事性能の統計的改善につながる有理性を生み出すことが示唆された。
論文 参考訳(メタデータ) (2020-02-11T04:51:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。