論文の概要: Explainability Case Studies
- arxiv url: http://arxiv.org/abs/2009.00246v2
- Date: Sat, 3 Oct 2020 03:46:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-04 03:30:13.008433
- Title: Explainability Case Studies
- Title(参考訳): 説明可能性事例研究
- Authors: Ben Zevenbergen and Allison Woodruff and Patrick Gage Kelley
- Abstract要約: 説明可能性(Explainability)は、AIシステムの設計における重要な倫理概念の1つである。
本稿では, 製品設計者, 開発者, 学生, 教育者に対して, 自社製品に対する総合的な説明可能性戦略を開発するための教育ツールとして機能する, 仮説的AI対応製品に関する一連のケーススタディを提案する。
- 参考スコア(独自算出の注目度): 2.2872132127037963
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explainability is one of the key ethical concepts in the design of AI
systems. However, attempts to operationalize this concept thus far have tended
to focus on approaches such as new software for model interpretability or
guidelines with checklists. Rarely do existing tools and guidance incentivize
the designers of AI systems to think critically and strategically about the
role of explanations in their systems. We present a set of case studies of a
hypothetical AI-enabled product, which serves as a pedagogical tool to empower
product designers, developers, students, and educators to develop a holistic
explainability strategy for their own products.
- Abstract(参考訳): 説明可能性(Explainability)は、AIシステムの設計における重要な倫理概念の1つである。
しかし、これまでこの概念を運用しようとする試みは、モデル解釈可能性のための新しいソフトウェアやチェックリストによるガイドラインのようなアプローチにフォーカスする傾向があった。
既存のツールやガイダンスによって、AIシステムのデザイナは、システムにおける説明の役割について、批判的かつ戦略的に考えることができる。
本稿では, 製品設計者, 開発者, 学生, 教育者に対して, 製品に対する総合的な説明可能性戦略を開発するための教育ツールとして機能する, 仮説的AI対応製品に関する一連のケーススタディを提案する。
関連論文リスト
- Data Analysis in the Era of Generative AI [56.44807642944589]
本稿では,AIを活用したデータ分析ツールの可能性について考察する。
我々は、大規模言語とマルチモーダルモデルの出現が、データ分析ワークフローの様々な段階を強化する新しい機会を提供する方法について検討する。
次に、直感的なインタラクションを促進し、ユーザ信頼を構築し、AI支援分析ワークフローを複数のアプリにわたって合理化するための、人間中心の設計原則を調べます。
論文 参考訳(メタデータ) (2024-09-27T06:31:03Z) - Enhancing LLM-Based Feedback: Insights from Intelligent Tutoring Systems and the Learning Sciences [0.0]
この研究は、ITSのフィードバック生成に関する以前の研究を通し、AIEDの研究を慎重に支援するものである。
本論文の主な貢献は次のとおりである。 生成AIの時代におけるフィードバック生成において、より慎重で理論的に基礎付けられた手法を適用すること。
論文 参考訳(メタデータ) (2024-05-07T20:09:18Z) - Opening the Black-Box: A Systematic Review on Explainable AI in Remote Sensing [51.524108608250074]
ブラックボックス機械学習アプローチは、リモートセンシングにおける知識抽出における主要なモデリングパラダイムとなっている。
我々は、この分野における重要なトレンドを特定するための体系的なレビューを行い、新しい説明可能なAIアプローチに光を当てた。
また,課題と将来的な研究方向性について,より詳細な展望を述べる。
論文 参考訳(メタデータ) (2024-02-21T13:19:58Z) - Designing explainable artificial intelligence with active inference: A
framework for transparent introspection and decision-making [0.0]
我々は、アクティブ推論がどのようにして説明可能なAIシステムの設計に活用できるかについて議論する。
能動推論を用いた説明可能なAIシステムのためのアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-06-06T21:38:09Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - Problem examination for AI methods in product design [4.020523898765404]
本稿ではまず,製品設計におけるAI手法の学際領域に関する重要な用語と概念を明らかにする。
重要な貢献は、4つの特徴の分解可能性、相互依存、革新、創造性を使った設計問題の新たな分類である。
これらの概念をAIソリューションに初期のマッピングすることは、設計例を使ってスケッチされ、検証される。
論文 参考訳(メタデータ) (2022-01-19T15:19:29Z) - A Critical Review of Inductive Logic Programming Techniques for
Explainable AI [9.028858411921906]
インダクティブ論理プログラミング(英: Inductive Logic Programming、ILP)は、人工知能のサブフィールドである。
ILPは、例と背景知識から説明可能な一階クラッサル理論を生成する。
既存のILPシステムは、しばしば広大な解空間を持ち、誘導された解はノイズや乱れに非常に敏感である。
論文 参考訳(メタデータ) (2021-12-31T06:34:32Z) - AI Explainability 360: Impact and Design [120.95633114160688]
2019年、私たちはAI Explainability 360(Arya et al. 2020)を開発しました。
本稿では,いくつかのケーススタディ,統計,コミュニティフィードバックを用いて,ツールキットが与える影響について検討する。
また,ツールキットのフレキシブルな設計,使用例,利用者が利用可能な教育資料や資料についても述べる。
論文 参考訳(メタデータ) (2021-09-24T19:17:09Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。