論文の概要: Explainability Case Studies
- arxiv url: http://arxiv.org/abs/2009.00246v2
- Date: Sat, 3 Oct 2020 03:46:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-04 03:30:13.008433
- Title: Explainability Case Studies
- Title(参考訳): 説明可能性事例研究
- Authors: Ben Zevenbergen and Allison Woodruff and Patrick Gage Kelley
- Abstract要約: 説明可能性(Explainability)は、AIシステムの設計における重要な倫理概念の1つである。
本稿では, 製品設計者, 開発者, 学生, 教育者に対して, 自社製品に対する総合的な説明可能性戦略を開発するための教育ツールとして機能する, 仮説的AI対応製品に関する一連のケーススタディを提案する。
- 参考スコア(独自算出の注目度): 2.2872132127037963
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explainability is one of the key ethical concepts in the design of AI
systems. However, attempts to operationalize this concept thus far have tended
to focus on approaches such as new software for model interpretability or
guidelines with checklists. Rarely do existing tools and guidance incentivize
the designers of AI systems to think critically and strategically about the
role of explanations in their systems. We present a set of case studies of a
hypothetical AI-enabled product, which serves as a pedagogical tool to empower
product designers, developers, students, and educators to develop a holistic
explainability strategy for their own products.
- Abstract(参考訳): 説明可能性(Explainability)は、AIシステムの設計における重要な倫理概念の1つである。
しかし、これまでこの概念を運用しようとする試みは、モデル解釈可能性のための新しいソフトウェアやチェックリストによるガイドラインのようなアプローチにフォーカスする傾向があった。
既存のツールやガイダンスによって、AIシステムのデザイナは、システムにおける説明の役割について、批判的かつ戦略的に考えることができる。
本稿では, 製品設計者, 開発者, 学生, 教育者に対して, 製品に対する総合的な説明可能性戦略を開発するための教育ツールとして機能する, 仮説的AI対応製品に関する一連のケーススタディを提案する。
関連論文リスト
- Designing explainable artificial intelligence with active inference: A
framework for transparent introspection and decision-making [0.0]
我々は、アクティブ推論がどのようにして説明可能なAIシステムの設計に活用できるかについて議論する。
能動推論を用いた説明可能なAIシステムのためのアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-06-06T21:38:09Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - Modelling Assessment Rubrics through Bayesian Networks: a Pragmatic
Approach [59.77710485234197]
本稿では,学習者モデルを直接評価ルーリックから導出する手法を提案する。
本稿では,コンピュータ思考のスキルをテストするために開発された活動の人的評価を自動化するために,この手法を適用する方法について述べる。
論文 参考訳(メタデータ) (2022-09-07T10:09:12Z) - Problem examination for AI methods in product design [4.020523898765404]
本稿ではまず,製品設計におけるAI手法の学際領域に関する重要な用語と概念を明らかにする。
重要な貢献は、4つの特徴の分解可能性、相互依存、革新、創造性を使った設計問題の新たな分類である。
これらの概念をAIソリューションに初期のマッピングすることは、設計例を使ってスケッチされ、検証される。
論文 参考訳(メタデータ) (2022-01-19T15:19:29Z) - A Critical Review of Inductive Logic Programming Techniques for
Explainable AI [9.028858411921906]
インダクティブ論理プログラミング(英: Inductive Logic Programming、ILP)は、人工知能のサブフィールドである。
ILPは、例と背景知識から説明可能な一階クラッサル理論を生成する。
既存のILPシステムは、しばしば広大な解空間を持ち、誘導された解はノイズや乱れに非常に敏感である。
論文 参考訳(メタデータ) (2021-12-31T06:34:32Z) - AI Explainability 360: Impact and Design [120.95633114160688]
2019年、私たちはAI Explainability 360(Arya et al. 2020)を開発しました。
本稿では,いくつかのケーススタディ,統計,コミュニティフィードバックを用いて,ツールキットが与える影響について検討する。
また,ツールキットのフレキシブルな設計,使用例,利用者が利用可能な教育資料や資料についても述べる。
論文 参考訳(メタデータ) (2021-09-24T19:17:09Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Explanation Ontology: A Model of Explanations for User-Centered AI [3.1783442097247345]
説明はしばしば、原則的でないポストホックな方法でAIシステムに追加されている。
これらのシステムの採用が拡大し、ユーザ中心の説明可能性に重点を置いているため、説明可能性について第一の考慮事項として扱う構造的表現が必要である。
我々は,説明の役割,システムとユーザ属性の双方をモデル化するための説明オントロジーを設計し,異なる文献に基づく説明型の範囲を設計する。
論文 参考訳(メタデータ) (2020-10-04T03:53:35Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。