論文の概要: The AI-DEC: A Card-based Design Method for User-centered AI Explanations
- arxiv url: http://arxiv.org/abs/2405.16711v1
- Date: Sun, 26 May 2024 22:18:38 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-28 19:35:41.791366
- Title: The AI-DEC: A Card-based Design Method for User-centered AI Explanations
- Title(参考訳): AI-DEC: ユーザ中心のAI説明のためのカードベースの設計方法
- Authors: Christine P Lee, Min Kyung Lee, Bilge Mutlu,
- Abstract要約: 我々は,AIの説明の4次元を定義する設計手法であるAI-DECを開発した。
我々は、医療、金融、マネジメント産業の労働者との共同設計セッションを通じて、この手法を評価する。
実世界のシステムにおけるAI説明のユーザ中心設計におけるAI-DECの利用の意味について論じる。
- 参考スコア(独自算出の注目度): 20.658833770179903
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Increasing evidence suggests that many deployed AI systems do not sufficiently support end-user interaction and information needs. Engaging end-users in the design of these systems can reveal user needs and expectations, yet effective ways of engaging end-users in the AI explanation design remain under-explored. To address this gap, we developed a design method, called AI-DEC, that defines four dimensions of AI explanations that are critical for the integration of AI systems -- communication content, modality, frequency, and direction -- and offers design examples for end-users to design AI explanations that meet their needs. We evaluated this method through co-design sessions with workers in healthcare, finance, and management industries who regularly use AI systems in their daily work. Findings indicate that the AI-DEC effectively supported workers in designing explanations that accommodated diverse levels of performance and autonomy needs, which varied depending on the AI system's workplace role and worker values. We discuss the implications of using the AI-DEC for the user-centered design of AI explanations in real-world systems.
- Abstract(参考訳): 証拠の増加は、多くのデプロイされたAIシステムがエンドユーザのインタラクションや情報ニーズを十分にサポートしていないことを示唆している。
これらのシステムの設計におけるエンドユーザーの増加は、ユーザーのニーズと期待を明らかにすることができるが、AI説明設計においてエンドユーザーを関与させる効果的な方法は、未調査のままである。
このギャップに対処するため、我々はAI-DECと呼ばれる設計手法を開発し、AIシステム(コミュニケーション内容、モダリティ、周波数、方向)の統合に不可欠なAI説明の4つの次元を定義し、エンドユーザが自身のニーズを満たすAI説明を設計するための設計例を提供する。
我々は,この手法を,日々の業務にAIシステムを利用する医療・金融・マネジメント業界の労働者との共同設計セッションを通じて評価した。
AI-DECは、AIシステムの職場の役割や労働者の価値観によって異なる、さまざまなレベルのパフォーマンスと自律性のニーズを満たす説明を設計する上で、労働者を効果的に支援したことを示している。
実世界のシステムにおけるAI説明のユーザ中心設計におけるAI-DECの利用の意味について論じる。
関連論文リスト
- Survey of User Interface Design and Interaction Techniques in Generative AI Applications [79.55963742878684]
我々は,デザイナやディベロッパの参照として使用できる,さまざまなユーザインタラクションパターンのコンペレーションを作ることを目指している。
また、生成AIアプリケーションの設計についてもっと学ぼうとする人たちの参入障壁を低くしようと努力しています。
論文 参考訳(メタデータ) (2024-10-28T23:10:06Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - PADTHAI-MM: A Principled Approach for Designing Trustable,
Human-centered AI systems using the MAST Methodology [5.38932801848643]
チェックリスト評価システムであるMultisource AI Scorecard Table (MAST)は、AI対応意思決定支援システムの設計と評価におけるこのギャップに対処する。
我々は,MAST手法を用いた信頼性の高い人間中心型AIシステムを設計するための原則的アプローチを提案する。
我々は,MAST誘導設計により信頼感が向上し,MAST基準が性能,プロセス,目的情報と結びつくことを示す。
論文 参考訳(メタデータ) (2024-01-24T23:15:44Z) - Requirements for Explainability and Acceptance of Artificial
Intelligence in Collaborative Work [0.0]
本稿では,AIの説明可能性と受容の要件について考察する。
その結果,2つの主要なグループが,モデルの内部操作に関する情報を必要とする開発者であることが示唆された。
AIシステムの受容は、システムの機能や性能、プライバシ、倫理的考慮事項に関する情報に依存する。
論文 参考訳(メタデータ) (2023-06-27T11:36:07Z) - End-User Development for Artificial Intelligence: A Systematic
Literature Review [2.347942013388615]
エンドユーザ開発(EUD)は、AIベースのシステムを自分たちのニーズに合わせて作成、カスタマイズ、あるいは適用することができる。
本稿では,AIシステムにおけるEUDの現在の状況に光を当てることを目的とした文献レビューを紹介する。
論文 参考訳(メタデータ) (2023-04-14T09:57:36Z) - Invisible Users: Uncovering End-Users' Requirements for Explainable AI
via Explanation Forms and Goals [19.268536451101912]
非技術者のエンドユーザは、最先端の説明可能な人工知能(XAI)技術のサイレントで目に見えないユーザです。
それらのAI説明可能性に対する要求と要求は、XAI技術の設計と評価には組み込まれていない。
これにより、XAI技術は、医療、刑事司法、金融、自動運転システムといった、高額な応用において非効率または有害である。
論文 参考訳(メタデータ) (2023-02-10T19:35:57Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - JEDAI Explains Decision-Making AI [9.581605678437032]
JEDAIは、ユーザーがロボットによって実行可能であることを保証しながら、高レベルで直感的な計画を作成するのに役立つ。
また、エラーに関するカスタマイズされた説明を提供し、AI計画の理解を改善する。
論文 参考訳(メタデータ) (2021-10-31T20:18:45Z) - Towards an Interface Description Template for AI-enabled Systems [77.34726150561087]
再利用(Reuse)は、システムアーキテクチャを既存のコンポーネントでインスタンス化しようとする、一般的なシステムアーキテクチャのアプローチである。
現在、コンポーネントが当初目的としていたものと異なるシステムで運用する可搬性を評価するために必要な情報の選択をガイドするフレームワークは存在しない。
我々は、AI対応コンポーネントの主情報をキャプチャするインターフェイス記述テンプレートの確立に向けて、現在進行中の作業について述べる。
論文 参考訳(メタデータ) (2020-07-13T20:30:26Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。