論文の概要: Explainability via Interactivity? Supporting Nonexperts' Sensemaking of
Pretrained CNN by Interacting with Their Daily Surroundings
- arxiv url: http://arxiv.org/abs/2107.01996v1
- Date: Mon, 31 May 2021 19:22:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-28 05:43:25.400107
- Title: Explainability via Interactivity? Supporting Nonexperts' Sensemaking of
Pretrained CNN by Interacting with Their Daily Surroundings
- Title(参考訳): 相互作用による説明可能性?
日中交流による訓練済みCNNの非専門家のセンスメイキング支援
- Authors: Chao Wang, Pengcheng An
- Abstract要約: 我々は,CNN(Convolutional Neural Networks)を対話的に理解するための非専門家を支援するモバイルアプリケーションを提案する。
ユーザーは周囲のオブジェクトの写真を撮ることで、事前訓練されたCNNで遊べる。
モデルの決定を直感的に視覚化するために、最新のXAI技術(Class Activation Map)を使用します。
- 参考スコア(独自算出の注目度): 7.455054065013047
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Current research on Explainable AI (XAI) heavily targets on expert users
(data scientists or AI developers). However, increasing importance has been
argued for making AI more understandable to nonexperts, who are expected to
leverage AI techniques, but have limited knowledge about AI. We present a
mobile application to support nonexperts to interactively make sense of
Convolutional Neural Networks (CNN); it allows users to play with a pretrained
CNN by taking pictures of their surrounding objects. We use an up-to-date XAI
technique (Class Activation Map) to intuitively visualize the model's decision
(the most important image regions that lead to a certain result). Deployed in a
university course, this playful learning tool was found to support design
students to gain vivid understandings about the capabilities and limitations of
pretrained CNNs in real-world environments. Concrete examples of students'
playful explorations are reported to characterize their sensemaking processes
reflecting different depths of thought.
- Abstract(参考訳): 説明可能なAI(XAI)に関する現在の研究は、専門家(データサイエンティストまたはAI開発者)を強くターゲットとしている。
しかし、AI技術を活用すると期待されているが、AIに関する知識は限られている非専門家にとってAIをより理解しやすいものにすることの重要性が高まっている。
本稿では,非専門家が対話的にCNN(Convolutional Neural Networks)を理解するためのモバイルアプリケーションを提案する。
我々は、モデルの決定(ある結果につながる最も重要な画像領域)を直感的に視覚化するために、最新のXAI技術(Class Activation Map)を使用します。
大学コースに展開されたこの遊び心のある学習ツールは、デザイン学生が現実世界の環境で事前学習したCNNの能力と限界について、鮮明な理解を得るのを支援するために発見された。
学生の遊び心のある探索の具体例は、異なる思考深度を反映する感覚形成過程を特徴付けるものとして報告されている。
関連論文リスト
- AI Readiness in Healthcare through Storytelling XAI [0.5120567378386615]
我々は,マルチタスク蒸留と解釈可能性技術を組み合わせて,聴衆中心の説明可能性を実現する手法を開発した。
我々の手法は、責任あるAIを実現するために、ドメインエキスパートと機械学習エキスパートの両方の信頼を高める。
論文 参考訳(メタデータ) (2024-10-24T13:30:18Z) - Towards Reconciling Usability and Usefulness of Explainable AI
Methodologies [2.715884199292287]
ブラックボックスAIシステムは、誤った判断を下すと、責任と説明責任の問題を引き起こす可能性がある。
説明可能なAI(XAI)は、開発者とエンドユーザの間の知識ギャップを埋めようとしている。
論文 参考訳(メタデータ) (2023-01-13T01:08:49Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Toward Transparent AI: A Survey on Interpreting the Inner Structures of
Deep Neural Networks [8.445831718854153]
インナー・インタープリタビリティ・ツールに焦点をあてて300を超える研究をレビューする。
そこで我々は,ネットワークのどの部分で説明できるかによって,メソッドを分類する分類法を提案する。
我々は、解釈可能性研究における現状は、主に非生産的であると論じる。
論文 参考訳(メタデータ) (2022-07-27T01:59:13Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z) - Empowering Things with Intelligence: A Survey of the Progress,
Challenges, and Opportunities in Artificial Intelligence of Things [98.10037444792444]
AIがIoTをより速く、より賢く、よりグリーンで、より安全にするための力を与える方法を示します。
まず、認識、学習、推論、行動の4つの視点から、IoTのためのAI研究の進歩を示す。
最後に、私たちの世界を深く再形成する可能性が高いAIoTの有望な応用をいくつかまとめる。
論文 参考訳(メタデータ) (2020-11-17T13:14:28Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z) - CNN Explainer: Learning Convolutional Neural Networks with Interactive
Visualization [23.369550871258543]
CNN Explainerは、非専門家が畳み込みニューラルネットワーク(CNN)を学習し、検証するために設計されたインタラクティブな可視化ツールである。
我々のツールは、CNNについて学びながら初心者が直面する重要な課題に対処し、インストラクターへのインタビューや過去の学生に対する調査から識別する。
CNN Explainerは、ユーザがCNNの内部動作をより理解しやすくし、興味深く、使いやすくする。
論文 参考訳(メタデータ) (2020-04-30T17:49:44Z) - Dark, Beyond Deep: A Paradigm Shift to Cognitive AI with Humanlike
Common Sense [142.53911271465344]
我々は、次世代のAIは、新しいタスクを解決するために、人間のような「暗黒」の常識を取り入れなければならないと論じている。
我々は、人間のような常識を持つ認知AIの5つの中核領域として、機能、物理学、意図、因果性、実用性(FPICU)を識別する。
論文 参考訳(メタデータ) (2020-04-20T04:07:28Z) - Explainable Active Learning (XAL): An Empirical Study of How Local
Explanations Impact Annotator Experience [76.9910678786031]
本稿では、最近急増している説明可能なAI(XAI)のテクニックをアクティブラーニング環境に導入することにより、説明可能なアクティブラーニング(XAL)の新たなパラダイムを提案する。
本研究は,機械教育のインタフェースとしてのAI説明の利点として,信頼度校正を支援し,リッチな形式の教示フィードバックを可能にすること,モデル判断と認知作業負荷による潜在的な欠点を克服する効果を示す。
論文 参考訳(メタデータ) (2020-01-24T22:52:18Z) - Questioning the AI: Informing Design Practices for Explainable AI User
Experiences [33.81809180549226]
説明可能なAI(XAI)への関心の高まりは、このトピックに関する膨大なアルゴリズム作業の収集につながった。
私たちは、説明可能なAI製品を作成するための現在のXAIアルゴリズム作業とプラクティスのギャップを特定しようとしています。
我々は,ユーザが説明責任を表現できるXAI質問バンクを開発した。
論文 参考訳(メタデータ) (2020-01-08T12:34:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。