論文の概要: Principles of Explanation in Human-AI Systems
- arxiv url: http://arxiv.org/abs/2102.04972v1
- Date: Tue, 9 Feb 2021 17:43:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-10 15:04:53.572985
- Title: Principles of Explanation in Human-AI Systems
- Title(参考訳): ヒューマンAIシステムにおける説明の原理
- Authors: Shane T. Mueller, Elizabeth S. Veinott, Robert R. Hoffman, Gary Klein,
Lamia Alam, Tauseef Mamun, and William J. Clancey
- Abstract要約: 説明可能な人工知能(XAI)は、現代のAIとMLシステムの開発に応えて再導入されている。
XAIシステムは、しばしばアルゴリズムに焦点を当てており、説明可能性に関する基本的な未テストのアイデアを実装したアルゴリズムの開始と終了である。
我々は,まず,XAIシステムの設計,テスト,実装に関する人間中心の原則から始めることを提案する。
- 参考スコア(独自算出の注目度): 0.7768952514701895
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Explainable Artificial Intelligence (XAI) has re-emerged in response to the
development of modern AI and ML systems. These systems are complex and
sometimes biased, but they nevertheless make decisions that impact our lives.
XAI systems are frequently algorithm-focused; starting and ending with an
algorithm that implements a basic untested idea about explainability. These
systems are often not tested to determine whether the algorithm helps users
accomplish any goals, and so their explainability remains unproven. We propose
an alternative: to start with human-focused principles for the design, testing,
and implementation of XAI systems, and implement algorithms to serve that
purpose. In this paper, we review some of the basic concepts that have been
used for user-centered XAI systems over the past 40 years of research. Based on
these, we describe the "Self-Explanation Scorecard", which can help developers
understand how they can empower users by enabling self-explanation. Finally, we
present a set of empirically-grounded, user-centered design principles that may
guide developers to create successful explainable systems.
- Abstract(参考訳): 説明可能な人工知能(XAI)は、現代のAIおよびMLシステムの開発に対応して再登場しました。
これらのシステムは複雑であり、時には偏見がありますが、それでも私たちの生活に影響を与える決定をします。
XAIシステムはしばしばアルゴリズムに焦点を当てており、説明可能性に関する基本的な未テストのアイデアを実装するアルゴリズムで始まり、終わります。
これらのシステムは、ユーザーが目的を達成するのにアルゴリズムが役立つかどうかを判断するためにテストされないことが多いので、その説明可能性はまだ証明されていない。
我々は、xaiシステムの設計、テスト、実装のための人間中心の原則から始め、その目的を達成するアルゴリズムを実装することを提案する。
本稿では,過去40年間の研究でユーザ中心のXAIシステムに用いられてきた基本概念について検討する。
これらに基づいて,自己説明スコアカード(Self-Explanation Scorecard)を記述し,開発者が自己説明を有効にすることでユーザに権限を与える方法を理解するのに役立つ。
最後に、経験に基づいたユーザ中心の設計原則のセットを提示し、開発者が説明可能なシステムを作るのを手助けします。
関連論文リスト
- Artificial General Intelligence (AGI)-Native Wireless Systems: A Journey Beyond 6G [58.440115433585824]
デジタルツイン(DT)のようなサービスをサポートする将来の無線システムの構築は、メタサーフェスのような従来の技術への進歩を通じて達成することが困難である。
人工知能(AI)ネイティブネットワークは、無線技術のいくつかの制限を克服することを約束する一方で、開発は依然としてニューラルネットワークのようなAIツールに依存している。
本稿では、AIネイティブ無線システムの概念を再考し、それらを人工知能(AGI)ネイティブシステムに変換するために必要な共通感覚を取り入れた。
論文 参考訳(メタデータ) (2024-04-29T04:51:05Z) - Towards Reconciling Usability and Usefulness of Explainable AI
Methodologies [2.715884199292287]
ブラックボックスAIシステムは、誤った判断を下すと、責任と説明責任の問題を引き起こす可能性がある。
説明可能なAI(XAI)は、開発者とエンドユーザの間の知識ギャップを埋めようとしている。
論文 参考訳(メタデータ) (2023-01-13T01:08:49Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - Transcending XAI Algorithm Boundaries through End-User-Inspired Design [27.864338632191608]
エンドユーザに対する説明責任重視の機能サポートの欠如は、高度なドメインにおけるAIの安全で責任ある使用を妨げる可能性がある。
我々の研究は、エンドユーザーがXAIを使用する際の技術的な問題を根底から解決することで、新たな研究課題がもたらされることを示している。
このようなエンドユーザにインスパイアされた研究質問は、AIを民主化し、クリティカルドメインにおけるAIの責任ある使用を保証することによって、社会的善を促進できる可能性がある。
論文 参考訳(メタデータ) (2022-08-18T09:44:51Z) - Responsible-AI-by-Design: a Pattern Collection for Designing Responsible
AI Systems [12.825892132103236]
責任あるAIのための多くの倫理規定、原則、ガイドラインが最近発行されている。
本稿では、システムレベルのガイダンスとして、責任あるAIシステムのアーキテクチャをどのように設計するかという、欠落した要素を1つ挙げる。
本稿では、AIシステムに組み込んだデザインパターンを製品として紹介し、責任あるAI設計に貢献する。
論文 参考訳(メタデータ) (2022-03-02T07:30:03Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z) - The MineRL BASALT Competition on Learning from Human Feedback [58.17897225617566]
MineRL BASALTコンペティションは、この重要な種類の技術の研究を促進することを目的としている。
Minecraftでは、ハードコードされた報酬関数を書くのが難しいと期待する4つのタスクのスイートを設計しています。
これら4つのタスクのそれぞれについて、人間のデモのデータセットを提供するとともに、模擬学習ベースラインを提供する。
論文 参考訳(メタデータ) (2021-07-05T12:18:17Z) - Explainable Artificial Intelligence (XAI) for Increasing User Trust in
Deep Reinforcement Learning Driven Autonomous Systems [0.8701566919381223]
我々は3つの説明を提供する説明可能な人工知能(XAI)フレームワークを提供する。
我々は,XAIフレームワークのユーザインタフェースを作成し,その有効性を評価した。
論文 参考訳(メタデータ) (2021-06-07T16:38:43Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。