論文の概要: iSee: Advancing Multi-Shot Explainable AI Using Case-based Recommendations
- arxiv url: http://arxiv.org/abs/2408.12941v1
- Date: Fri, 23 Aug 2024 09:44:57 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-26 15:40:04.879186
- Title: iSee: Advancing Multi-Shot Explainable AI Using Case-based Recommendations
- Title(参考訳): iSee: ケースベースのレコメンデーションを用いたマルチショット説明可能なAIの改善
- Authors: Anjana Wijekoon, Nirmalie Wiratunga, David Corsar, Kyle Martin, Ikechukwu Nkisi-Orji, Chamath Palihawadana, Marta Caro-Martínez, Belen Díaz-Agudo, Derek Bridge, Anne Liret,
- Abstract要約: iSeeプラットフォームは、説明体験のインテリジェントな共有と再利用のために設計されている。
ケースベースの推論は、XAIのベストプラクティスを前進させるために使用されます。
iSeeプラットフォーム内で生成されたすべての知識は、相互運用性のためのiSeeオントロジーによって形式化されている。
- 参考スコア(独自算出の注目度): 0.6774524960721717
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explainable AI (XAI) can greatly enhance user trust and satisfaction in AI-assisted decision-making processes. Recent findings suggest that a single explainer may not meet the diverse needs of multiple users in an AI system; indeed, even individual users may require multiple explanations. This highlights the necessity for a "multi-shot" approach, employing a combination of explainers to form what we introduce as an "explanation strategy". Tailored to a specific user or a user group, an "explanation experience" describes interactions with personalised strategies designed to enhance their AI decision-making processes. The iSee platform is designed for the intelligent sharing and reuse of explanation experiences, using Case-based Reasoning to advance best practices in XAI. The platform provides tools that enable AI system designers, i.e. design users, to design and iteratively revise the most suitable explanation strategy for their AI system to satisfy end-user needs. All knowledge generated within the iSee platform is formalised by the iSee ontology for interoperability. We use a summative mixed methods study protocol to evaluate the usability and utility of the iSee platform with six design users across varying levels of AI and XAI expertise. Our findings confirm that the iSee platform effectively generalises across applications and its potential to promote the adoption of XAI best practices.
- Abstract(参考訳): 説明可能なAI(XAI)は、AIによる意思決定プロセスにおけるユーザの信頼と満足度を大幅に向上させる。
最近の知見は、単一の説明者がAIシステムにおける複数のユーザの多様なニーズを満たすことができないかもしれないことを示唆している。
これは"マルチショット"アプローチの必要性を強調し、"説明戦略"として導入するものを形成するために、説明器を組み合わせています。
特定のユーザやユーザグループに敬意を表した“説明体験”では、AI意思決定プロセスを強化するために設計された、パーソナライズされた戦略とのインタラクションを記述している。
iSeeプラットフォームは、XAIのベストプラクティスを前進させるためにケースベースの推論を使用して、説明体験のインテリジェントな共有と再利用を目的として設計されている。
このプラットフォームは、エンドユーザーのニーズを満たすために、AIシステムの最も適切な説明戦略を設計し、反復的に修正する、AIシステムデザイナ、すなわち設計ユーザを可能にするツールを提供する。
iSeeプラットフォーム内で生成されたすべての知識は、相互運用性のためのiSeeオントロジーによって形式化されている。
我々は、AIとXAIの専門知識の異なる6つの設計ユーザによるiSeeプラットフォームのユーザビリティと有用性を評価するために、要約混合手法研究プロトコルを使用します。
以上の結果から,iSeeプラットフォームはアプリケーション全体にわたって効果的に一般化し,XAIベストプラクティスの採用を促進する可能性が確認された。
関連論文リスト
- Survey of User Interface Design and Interaction Techniques in Generative AI Applications [79.55963742878684]
我々は,デザイナやディベロッパの参照として使用できる,さまざまなユーザインタラクションパターンのコンペレーションを作ることを目指している。
また、生成AIアプリケーションの設計についてもっと学ぼうとする人たちの参入障壁を低くしようと努力しています。
論文 参考訳(メタデータ) (2024-10-28T23:10:06Z) - The AI-DEC: A Card-based Design Method for User-centered AI Explanations [20.658833770179903]
我々は,AIの説明の4次元を定義する設計手法であるAI-DECを開発した。
我々は、医療、金融、マネジメント産業の労働者との共同設計セッションを通じて、この手法を評価する。
実世界のシステムにおけるAI説明のユーザ中心設計におけるAI-DECの利用の意味について論じる。
論文 参考訳(メタデータ) (2024-05-26T22:18:38Z) - Human-AI Interaction in Industrial Robotics: Design and Empirical Evaluation of a User Interface for Explainable AI-Based Robot Program Optimization [5.537321488131869]
本稿では,最先端の深層学習型ロボットプログラムのための説明ユーザインタフェース(XUI)を提案する。
XUIは、スキルレベルによって異なるユーザエクスペリエンスを持つ、ナイーブなユーザとエキスパートなユーザの両方を提供します。
論文 参考訳(メタデータ) (2024-04-30T08:20:31Z) - How Human-Centered Explainable AI Interface Are Designed and Evaluated: A Systematic Survey [48.97104365617498]
Em Explainable Interfaces (EIs) の登場する領域は,XAI のユーザインターフェースとユーザエクスペリエンス設計に重点を置いている。
本稿では,人間とXAIの相互作用の現在の動向と,EI設計・開発に向けた将来的な方向性を明らかにするために,53の出版物を体系的に調査する。
論文 参考訳(メタデータ) (2024-03-21T15:44:56Z) - XAI for All: Can Large Language Models Simplify Explainable AI? [0.0699049312989311]
x-[plAIn]"は、カスタムのLarge Language Modelを通じて、XAIをより広く利用できるようにする新しいアプローチである。
我々の目標は、様々なXAI手法の明確で簡潔な要約を生成できるモデルを設計することであった。
使用事例調査の結果から,本モデルは理解し易く,観衆特有の説明を提供するのに有効であることが示された。
論文 参考訳(メタデータ) (2024-01-23T21:47:12Z) - I-CEE: Tailoring Explanations of Image Classification Models to User
Expertise [13.293968260458962]
I-CEEは,ユーザエキスパートに適した画像分類記述を提供するフレームワークである。
I-CEEは、ユーザの専門知識に依存するサンプルイメージのインフォメーション性をモデル化し、異なるユーザに対して異なるサンプルを生成する。
シミュレーションされたユーザによる実験は、I-CEEがモデルの判断を正確に予測する能力を改善することを示している。
論文 参考訳(メタデータ) (2023-12-19T12:26:57Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - What Do End-Users Really Want? Investigation of Human-Centered XAI for
Mobile Health Apps [69.53730499849023]
説明可能なAI(XAI)を評価するために,ユーザ中心のペルソナ概念を提案する。
分析の結果,ユーザの人口統計や性格,説明のタイプ,影響説明の嗜好が示された。
私たちの洞察は、対話的で人間中心のXAIを実践的な応用に近づけます。
論文 参考訳(メタデータ) (2022-10-07T12:51:27Z) - User-Oriented Smart General AI System under Causal Inference [0.0]
汎用AIシステムは、自動化された方法で高性能で幅広いタスクを解決します。
ある個人が設計した最も一般的なaiアルゴリズムは、他の個人が考案したものとは異なる。
暗黙の知識は、タスク情報のユーザ固有の理解と個々のモデル設計の好みに依存する。
論文 参考訳(メタデータ) (2021-03-25T08:34:35Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。