論文の概要: A systematic review and taxonomy of explanations in decision support and
recommender systems
- arxiv url: http://arxiv.org/abs/2006.08672v1
- Date: Mon, 15 Jun 2020 18:19:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-21 04:43:51.613733
- Title: A systematic review and taxonomy of explanations in decision support and
recommender systems
- Title(参考訳): 意思決定支援・推薦システムにおける説明の体系的レビューと分類
- Authors: Ingrid Nunes and Dietmar Jannach
- Abstract要約: 我々は,勧告システムにおける説明に関する文献を体系的にレビューする。
我々は、説明施設を設計する際に考慮すべき側面の包括的分類法を考案した。
- 参考スコア(独自算出の注目度): 13.224071661974596
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the recent advances in the field of artificial intelligence, an
increasing number of decision-making tasks are delegated to software systems. A
key requirement for the success and adoption of such systems is that users must
trust system choices or even fully automated decisions. To achieve this,
explanation facilities have been widely investigated as a means of establishing
trust in these systems since the early years of expert systems. With today's
increasingly sophisticated machine learning algorithms, new challenges in the
context of explanations, accountability, and trust towards such systems
constantly arise. In this work, we systematically review the literature on
explanations in advice-giving systems. This is a family of systems that
includes recommender systems, which is one of the most successful classes of
advice-giving software in practice. We investigate the purposes of explanations
as well as how they are generated, presented to users, and evaluated. As a
result, we derive a novel comprehensive taxonomy of aspects to be considered
when designing explanation facilities for current and future decision support
systems. The taxonomy includes a variety of different facets, such as
explanation objective, responsiveness, content and presentation. Moreover, we
identified several challenges that remain unaddressed so far, for example
related to fine-grained issues associated with the presentation of explanations
and how explanation facilities are evaluated.
- Abstract(参考訳): 近年の人工知能分野の進歩により、意思決定タスクの数がソフトウェアシステムに委譲されている。
このようなシステムの成功と採用のための重要な要件は、ユーザがシステム選択や、完全に自動化された決定を信頼しなければならないことです。
これを実現するために、これらのシステムに対する信頼を確立する手段として、エキスパートシステムの初期から説明施設が広く研究されてきた。
今日の高度な機械学習アルゴリズムでは、説明や説明責任、システムに対する信頼といった文脈において、常に新たな課題が発生する。
本研究では,勧告システムにおける説明に関する文献を体系的にレビューする。
これはレコメンデーションシステムを含むシステムのファミリーであり、実際には最も成功したアドバイス型ソフトウェアクラスの1つである。
本稿では,説明の目的や生成方法,ユーザへの提示,評価について検討する。
その結果、現在および将来の意思決定支援システムの解説施設を設計する際に考慮すべき側面の包括的分類法が導出された。
分類学は、説明目的、応答性、内容、プレゼンテーションなど、様々な異なるファセットを含んでいる。
さらに,説明の提示に伴うきめ細かい問題や説明施設の評価など,これまで未解決のままであったいくつかの課題を明らかにした。
関連論文リスト
- Recommender Systems in the Era of Large Language Models (LLMs) [62.0129013439038]
大規模言語モデル(LLM)は自然言語処理(NLP)と人工知能(AI)の分野に革命をもたらした。
我々は, プレトレーニング, ファインチューニング, プロンプティングなどの様々な側面から, LLM を利用したレコメンデータシステムの総合的なレビューを行う。
論文 参考訳(メタデータ) (2023-07-05T06:03:40Z) - A Domain-Agnostic Approach for Characterization of Lifelong Learning
Systems [128.63953314853327]
「生涯学習」システムには,1)継続的学習,2)伝達と適応,3)拡張性があります。
この一連のメトリクスは、様々な複雑な生涯学習システムの開発に役立てることができることを示す。
論文 参考訳(メタデータ) (2023-01-18T21:58:54Z) - Video Surveillance System Incorporating Expert Decision-making Process:
A Case Study on Detecting Calving Signs in Cattle [5.80793470875286]
本研究では、専門家の意思決定プロセスと、通知対象の豊富なドメイン知識を組み込むことにより、予測の背後にある推論を提示するビデオ監視AIシステムの枠組みについて検討する。
本研究は,畜産従事者とのユーザスタディを通じて,提案手法に基づく牛の養殖の兆候を検出するシステムを構築し,そのシステムの評価を行った。
論文 参考訳(メタデータ) (2023-01-10T12:06:49Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - Learning Classifier Systems for Self-Explaining Socio-Technical-Systems [0.0]
社会技術的設定では、オペレーターは意思決定支援システムによってますます助けられている。
オペレーターに受け入れられ、効率的に関与するには、特定の意思決定の背後にある理由について、意思決定支援システムが説明できる必要がある。
本稿では,アプリケーション固有の説明可能性の必要性を評価するための7つの質問のテンプレートを提案する。
論文 参考訳(メタデータ) (2022-07-01T08:13:34Z) - Learning Physical Concepts in Cyber-Physical Systems: A Case Study [72.74318982275052]
本稿では,時系列データにおける物理概念の学習方法に関する研究の現状について概説する。
また,3タンクシステムの例を用いて,最先端技術から最も重要な手法を分析した。
論文 参考訳(メタデータ) (2021-11-28T14:24:52Z) - Fairness On The Ground: Applying Algorithmic Fairness Approaches to
Production Systems [4.288137349392433]
本稿では,大規模技術企業における複雑な生産システムへのアルゴリズム公平性アプローチの適用例を示す。
システム実装の実証的な問題から、製品と政策設計の規範的な質問を解き放つ方法について議論します。
また、後者の質問に答えるためのアプローチを提案し、機械学習システムと人間のラベル付け者がこれらのトレードオフをどう行っているかを測定することができる。
論文 参考訳(メタデータ) (2021-03-10T16:42:20Z) - Recommender Systems for Configuration Knowledge Engineering [55.41644538483948]
レコメンダーシステムがナレッジベースの開発とメンテナンスプロセスをどのようにサポートできるかを示します。
ユーザ中心の構成知識組織の重要性を示す実証研究の成果を報告する。
論文 参考訳(メタデータ) (2021-02-16T12:29:54Z) - An Overview of Recommender Systems and Machine Learning in Feature
Modeling and Configuration [55.67505546330206]
レコメンダーシステムおよび機械学習技術の適用に関連する潜在的な新しい研究ラインの概要を説明します。
本論文では,レコメンダーシステムと機械学習の応用例を示し,今後の研究課題について考察する。
論文 参考訳(メタデータ) (2021-02-12T17:21:36Z) - Explanation Ontology: A Model of Explanations for User-Centered AI [3.1783442097247345]
説明はしばしば、原則的でないポストホックな方法でAIシステムに追加されている。
これらのシステムの採用が拡大し、ユーザ中心の説明可能性に重点を置いているため、説明可能性について第一の考慮事項として扱う構造的表現が必要である。
我々は,説明の役割,システムとユーザ属性の双方をモデル化するための説明オントロジーを設計し,異なる文献に基づく説明型の範囲を設計する。
論文 参考訳(メタデータ) (2020-10-04T03:53:35Z) - Foundations of Explainable Knowledge-Enabled Systems [3.7250420821969827]
本稿では,説明可能な人工知能システムの歴史的概要を紹介する。
我々は、エキスパートシステム、認知アシスタント、セマンティックアプリケーション、機械学習ドメインにまたがる知識対応システムに焦点を当てる。
説明可能な知識対応システムと説明可能な知識対応システムについて,新たな定義を提案する。
論文 参考訳(メタデータ) (2020-03-17T04:18:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。