論文の概要: Foundations of Explainable Knowledge-Enabled Systems
- arxiv url: http://arxiv.org/abs/2003.07520v1
- Date: Tue, 17 Mar 2020 04:18:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-22 20:54:52.796870
- Title: Foundations of Explainable Knowledge-Enabled Systems
- Title(参考訳): 説明可能な知識実現システムの基礎
- Authors: Shruthi Chari, Daniel M. Gruen, Oshani Seneviratne, Deborah L.
McGuinness
- Abstract要約: 本稿では,説明可能な人工知能システムの歴史的概要を紹介する。
我々は、エキスパートシステム、認知アシスタント、セマンティックアプリケーション、機械学習ドメインにまたがる知識対応システムに焦点を当てる。
説明可能な知識対応システムと説明可能な知識対応システムについて,新たな定義を提案する。
- 参考スコア(独自算出の注目度): 3.7250420821969827
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explainability has been an important goal since the early days of Artificial
Intelligence. Several approaches for producing explanations have been
developed. However, many of these approaches were tightly coupled with the
capabilities of the artificial intelligence systems at the time. With the
proliferation of AI-enabled systems in sometimes critical settings, there is a
need for them to be explainable to end-users and decision-makers. We present a
historical overview of explainable artificial intelligence systems, with a
focus on knowledge-enabled systems, spanning the expert systems, cognitive
assistants, semantic applications, and machine learning domains. Additionally,
borrowing from the strengths of past approaches and identifying gaps needed to
make explanations user- and context-focused, we propose new definitions for
explanations and explainable knowledge-enabled systems.
- Abstract(参考訳): 説明可能性(Explainability)は、人工知能の初期から重要な目標だった。
説明を作るためのいくつかのアプローチが開発されている。
しかし、これらのアプローチの多くは、当時の人工知能システムの能力と密結合していた。
AI対応システムが時々重要な環境で普及しているため、エンドユーザーや意思決定者に説明できる必要がある。
本稿では,知識対応システムに着目し,エキスパートシステム,認知アシスタント,意味的応用,機械学習領域にまたがる,説明可能な人工知能システムの歴史的概要を紹介する。
さらに,過去のアプローチの強みを借用し,ユーザとコンテキストに焦点を当てた説明を行うために必要なギャップを特定することで,説明と説明可能な知識対応システムのための新たな定義を提案する。
関連論文リスト
- Opening the Black-Box: A Systematic Review on Explainable AI in Remote Sensing [51.524108608250074]
ブラックボックス機械学習アプローチは、リモートセンシングにおける知識抽出における主要なモデリングパラダイムとなっている。
我々は、この分野における重要なトレンドを特定するための体系的なレビューを行い、新しい説明可能なAIアプローチに光を当てた。
また,課題と将来的な研究方向性について,より詳細な展望を述べる。
論文 参考訳(メタデータ) (2024-02-21T13:19:58Z) - Enabling High-Level Machine Reasoning with Cognitive Neuro-Symbolic
Systems [67.01132165581667]
本稿では,認知アーキテクチャを外部のニューロシンボリックコンポーネントと統合することにより,AIシステムにおける高レベル推論を実現することを提案する。
本稿では,ACT-Rを中心としたハイブリッドフレームワークについて紹介し,最近の応用における生成モデルの役割について論じる。
論文 参考訳(メタデータ) (2023-11-13T21:20:17Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - "Explanation" is Not a Technical Term: The Problem of Ambiguity in XAI [2.5899040911480173]
本稿では,これらの特徴を実用性評価に利用する方法について検討する。
我々は,機能的役割によって定義された説明の要件,理解しようとするユーザの知識状態,それらの生成に必要な情報の提供に焦点をあてる。
論文 参考訳(メタデータ) (2022-06-27T21:42:53Z) - Explanation Ontology: A Model of Explanations for User-Centered AI [3.1783442097247345]
説明はしばしば、原則的でないポストホックな方法でAIシステムに追加されている。
これらのシステムの採用が拡大し、ユーザ中心の説明可能性に重点を置いているため、説明可能性について第一の考慮事項として扱う構造的表現が必要である。
我々は,説明の役割,システムとユーザ属性の双方をモデル化するための説明オントロジーを設計し,異なる文献に基づく説明型の範囲を設計する。
論文 参考訳(メタデータ) (2020-10-04T03:53:35Z) - Distributed and Democratized Learning: Philosophy and Research
Challenges [80.39805582015133]
民主化学習(Dem-AI)という新しいデザイン哲学を提案する。
ヒトの社会的グループに触発され、提案されたDem-AIシステムの学習エージェントの専門グループは階層構造で自己組織化され、より効率的に学習タスクを遂行する。
本稿では,様々な学際分野に触発された未来のDem-AIシステムを実現するためのガイドラインとして,参照設計を提案する。
論文 参考訳(メタデータ) (2020-03-18T08:45:10Z) - Directions for Explainable Knowledge-Enabled Systems [3.7250420821969827]
我々は、人工知能と密接に関連する分野における説明文献の調査を活用して、一連の説明型を生成する。
それぞれの型を定義し、このスタイルの説明の必要性を動機付けるサンプル質問を提供します。
この一連の説明型は、将来のシステム設計者が要求の生成と優先順位付けに役立ちます。
論文 参考訳(メタデータ) (2020-03-17T04:34:29Z) - Neuro-symbolic Architectures for Context Understanding [59.899606495602406]
本稿では,データ駆動型アプローチと知識駆動型アプローチの強みを組み合わせたフレームワークとして,ハイブリッドAI手法を提案する。
具体的には、知識ベースを用いて深層ニューラルネットワークの学習過程を導く方法として、ニューロシンボリズムの概念を継承する。
論文 参考訳(メタデータ) (2020-03-09T15:04:07Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。