論文の概要: Directions for Explainable Knowledge-Enabled Systems
- arxiv url: http://arxiv.org/abs/2003.07523v1
- Date: Tue, 17 Mar 2020 04:34:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-22 20:54:41.946136
- Title: Directions for Explainable Knowledge-Enabled Systems
- Title(参考訳): 説明可能な知識対応システムの方向性
- Authors: Shruthi Chari, Daniel M. Gruen, Oshani Seneviratne, Deborah L.
McGuinness
- Abstract要約: 我々は、人工知能と密接に関連する分野における説明文献の調査を活用して、一連の説明型を生成する。
それぞれの型を定義し、このスタイルの説明の必要性を動機付けるサンプル質問を提供します。
この一連の説明型は、将来のシステム設計者が要求の生成と優先順位付けに役立ちます。
- 参考スコア(独自算出の注目度): 3.7250420821969827
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Interest in the field of Explainable Artificial Intelligence has been growing
for decades and has accelerated recently. As Artificial Intelligence models
have become more complex, and often more opaque, with the incorporation of
complex machine learning techniques, explainability has become more critical.
Recently, researchers have been investigating and tackling explainability with
a user-centric focus, looking for explanations to consider trustworthiness,
comprehensibility, explicit provenance, and context-awareness. In this chapter,
we leverage our survey of explanation literature in Artificial Intelligence and
closely related fields and use these past efforts to generate a set of
explanation types that we feel reflect the expanded needs of explanation for
today's artificial intelligence applications. We define each type and provide
an example question that would motivate the need for this style of explanation.
We believe this set of explanation types will help future system designers in
their generation and prioritization of requirements and further help generate
explanations that are better aligned to users' and situational needs.
- Abstract(参考訳): 説明可能な人工知能の分野への関心は数十年にわたって高まり、近年は加速している。
人工知能モデルが複雑化し、しばしば不透明になるにつれて、複雑な機械学習技術が取り入れられ、説明可能性もより重要になっている。
近年,信頼性,理解性,明示的証明性,文脈認識性を考慮し,ユーザ中心の視点で説明可能性を調査し,対処している。
本章では,人工知能と密接な関連分野における説明文献の調査を活用し,これまでの研究成果を活かして,今日の人工知能応用における説明ニーズの拡大を反映した説明タイプを創り出す。
それぞれの型を定義し、このスタイルの説明の必要性を動機付けるサンプル質問を提供します。
この一連の説明タイプは、要求の生成と優先順位付けにおける将来のシステムデザイナーの助けとなり、さらにユーザと状況ニーズに合致した説明を生成するのに役立つと信じています。
関連論文リスト
- Automated Explanation Selection for Scientific Discovery [0.0]
本稿では,機械学習と自動推論を組み合わせた科学的発見のサイクルを提案する。
本稿では,社会学と認知科学の知見に基づく説明選択問題の分類について述べる。
論文 参考訳(メタデータ) (2024-07-24T17:41:32Z) - SOK-Bench: A Situated Video Reasoning Benchmark with Aligned Open-World Knowledge [60.76719375410635]
44Kの質問と10Kの状況からなる新しいベンチマーク(SOK-Bench)を提案する。
推論プロセスは、位置する知識と問題解決のための一般的な知識を理解し、適用するために必要である。
質問応答ペアと推論プロセスを生成し,最後に品質保証に関する手作業によるレビューを行った。
論文 参考訳(メタデータ) (2024-05-15T21:55:31Z) - Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - Attribution-Scores and Causal Counterfactuals as Explanations in
Artificial Intelligence [0.0]
私たちは、人工知能、一般に、そして、エミュレート可能なAIにおける新しい発展に対する説明の関連性を強調します。
本稿では、帰属スコアに基づくデータ管理や機械学習における説明、因果関係の領域で見られる反事実を簡潔に記述する。
論文 参考訳(メタデータ) (2023-03-06T01:46:51Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - Rethinking Explainability as a Dialogue: A Practitioner's Perspective [57.87089539718344]
医師、医療専門家、政策立案者に対して、説明を求めるニーズと欲求について尋ねる。
本研究は, 自然言語対話の形での対話的説明を, 意思決定者が強く好むことを示唆する。
これらのニーズを考慮して、インタラクティブな説明を設計する際に、研究者が従うべき5つの原則を概説する。
論文 参考訳(メタデータ) (2022-02-03T22:17:21Z) - Explainable Machine Learning with Prior Knowledge: An Overview [1.1045760002858451]
機械学習モデルの複雑さは、より説明しやすいように研究を誘致している。
機械学習モデルの説明能力を改善するために,事前知識を活用することを提案する。
論文 参考訳(メタデータ) (2021-05-21T07:33:22Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z) - Foundations of Explainable Knowledge-Enabled Systems [3.7250420821969827]
本稿では,説明可能な人工知能システムの歴史的概要を紹介する。
我々は、エキスパートシステム、認知アシスタント、セマンティックアプリケーション、機械学習ドメインにまたがる知識対応システムに焦点を当てる。
説明可能な知識対応システムと説明可能な知識対応システムについて,新たな定義を提案する。
論文 参考訳(メタデータ) (2020-03-17T04:18:48Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。