論文の概要: How to Answer Why -- Evaluating the Explanations of AI Through Mental
Model Analysis
- arxiv url: http://arxiv.org/abs/2002.02526v1
- Date: Sat, 11 Jan 2020 17:15:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-12 09:45:27.951215
- Title: How to Answer Why -- Evaluating the Explanations of AI Through Mental
Model Analysis
- Title(参考訳): なぜ?-メンタルモデル分析によるAIの説明の評価
- Authors: Tim Schrills, Thomas Franke
- Abstract要約: 人間中心のAI研究の鍵となる疑問は、ユーザーのメンタルモデルをどのように有効に調査するかである。
実験的な研究手法としてメンタルモデルが適切かどうかを評価する。
本稿では、人間中心の方法で説明可能なAIアプローチを評価するための模範的手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To achieve optimal human-system integration in the context of user-AI
interaction it is important that users develop a valid representation of how AI
works. In most of the everyday interaction with technical systems users
construct mental models (i.e., an abstraction of the anticipated mechanisms a
system uses to perform a given task). If no explicit explanations are provided
by a system (e.g. by a self-explaining AI) or other sources (e.g. an
instructor), the mental model is typically formed based on experiences, i.e.
the observations of the user during the interaction. The congruence of this
mental model and the actual systems functioning is vital, as it is used for
assumptions, predictions and consequently for decisions regarding system use. A
key question for human-centered AI research is therefore how to validly survey
users' mental models. The objective of the present research is to identify
suitable elicitation methods for mental model analysis. We evaluated whether
mental models are suitable as an empirical research method. Additionally,
methods of cognitive tutoring are integrated. We propose an exemplary method to
evaluate explainable AI approaches in a human-centered way.
- Abstract(参考訳): ユーザとAIのインタラクションのコンテキストにおいて、最適なヒューマンシステム統合を実現するためには、AIの動作に関する有効な表現を開発することが重要である。
技術的システムとの日常的な相互作用のほとんどは、ユーザがメンタルモデルを構築する(つまり、システムが特定のタスクを実行するために使用する期待メカニズムの抽象化)。
システム(例えば、自己説明ai)や他の情報源(例えばインストラクター)によって明示的な説明が得られない場合、メンタルモデルは通常、経験、すなわち対話中のユーザの観察に基づいて形成される。
このメンタルモデルと実際のシステムが機能していることは、仮定、予測、そして結果としてシステムの使用に関する決定に使用されるため、不可欠である。
人間中心のAI研究の鍵となる疑問は、ユーザーのメンタルモデルをどのように有効に調査するかである。
本研究の目的は,精神モデル解析に適した誘発法を明らかにすることである。
実験的な研究手法としてメンタルモデルが適切かどうかを検討した。
また、認知学習の手法も統合されている。
本稿では,説明可能なaiアプローチを人間中心の方法で評価する例式を提案する。
関連論文リスト
- Human-Modeling in Sequential Decision-Making: An Analysis through the Lens of Human-Aware AI [20.21053807133341]
私たちは、人間を意識したAIシステムを構成するものの説明を提供しようとしています。
人間を意識したAIはデザイン指向のパラダイムであり、人間と対話するかもしれないモデリングの必要性に焦点を当てている。
論文 参考訳(メタデータ) (2024-05-13T14:17:52Z) - Pangu-Agent: A Fine-Tunable Generalist Agent with Structured Reasoning [50.47568731994238]
人工知能(AI)エージェント作成の鍵となる方法は強化学習(RL)である
本稿では,構造化推論をAIエージェントのポリシーに統合し,学習するための一般的なフレームワークモデルを提案する。
論文 参考訳(メタデータ) (2023-12-22T17:57:57Z) - Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - Incremental procedural and sensorimotor learning in cognitive humanoid
robots [52.77024349608834]
本研究は,手順を段階的に学習する認知エージェントを提案する。
各サブステージで必要とされる認知機能と, エージェントが未解決の課題に, 新たな機能の追加がどう対処するかを示す。
結果は、このアプローチが複雑なタスクを段階的に解くことができることを示している。
論文 参考訳(メタデータ) (2023-04-30T22:51:31Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - Modeling Human Behavior Part I -- Learning and Belief Approaches [0.0]
探索とフィードバックを通じて行動のモデルや方針を学ぶ手法に焦点を当てる。
次世代の自律的適応システムは、主にAIエージェントと人間がチームとして一緒に働く。
論文 参考訳(メタデータ) (2022-05-13T07:33:49Z) - Micro-entries: Encouraging Deeper Evaluation of Mental Models Over Time
for Interactive Data Systems [7.578368459974474]
本稿では,ユーザによるシステム論理のメンタルモデルの評価について論じる。
メンタルモデルは、キャプチャと分析が難しい。
ユーザーが何を知り、どのように知っているかを説明することで、研究者は構造化された時間順の洞察を集めることができる。
論文 参考訳(メタデータ) (2020-09-02T18:27:04Z) - Machine Common Sense [77.34726150561087]
機械の常識は、人工知能(AI)において広範で潜在的に無拘束な問題のままである
本稿では、対人インタラクションのようなドメインに焦点を当てたコモンセンス推論のモデル化の側面について論じる。
論文 参考訳(メタデータ) (2020-06-15T13:59:47Z) - The Grammar of Interactive Explanatory Model Analysis [7.812073412066698]
本稿では,異なる説明モデル解析(EMA)手法が相互にどのように補完するかを示す。
我々はIEMAの文法を形式化し、潜在的な人間モデル対話を記述する。
IEMAは、広く使われている人中心のオープンソースソフトウェアフレームワークで実装されている。
論文 参考訳(メタデータ) (2020-05-01T17:12:22Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。