論文の概要: Explainable Artificial Intelligence (XAI) from a user perspective- A
synthesis of prior literature and problematizing avenues for future research
- arxiv url: http://arxiv.org/abs/2211.15343v1
- Date: Thu, 24 Nov 2022 20:15:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-29 15:57:11.268110
- Title: Explainable Artificial Intelligence (XAI) from a user perspective- A
synthesis of prior literature and problematizing avenues for future research
- Title(参考訳): ユーザの視点から見た説明可能な人工知能(XAI)-先行文献の合成と今後の研究への課題
- Authors: AKM Bahalul Haque, A.K.M. Najmul Islam, Patrick Mikalef
- Abstract要約: この結果は、フォーマット、完全性、正確性、および通貨である、AI説明を形成する4つの次元を示している。
説明の自動表現に加えて、ユーザーは必要に応じて追加情報を要求することができる。
また、XAI効果の5つの次元として、信頼、透明性、理解可能性、ユーザビリティ、公平性を見つけました。
- 参考スコア(独自算出の注目度): 0.5371337604556311
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The final search query for the Systematic Literature Review (SLR) was
conducted on 15th July 2022. Initially, we extracted 1707 journal and
conference articles from the Scopus and Web of Science databases. Inclusion and
exclusion criteria were then applied, and 58 articles were selected for the
SLR. The findings show four dimensions that shape the AI explanation, which are
format (explanation representation format), completeness (explanation should
contain all required information, including the supplementary information),
accuracy (information regarding the accuracy of the explanation), and currency
(explanation should contain recent information). Moreover, along with the
automatic representation of the explanation, the users can request additional
information if needed. We have also found five dimensions of XAI effects:
trust, transparency, understandability, usability, and fairness. In addition,
we investigated current knowledge from selected articles to problematize future
research agendas as research questions along with possible research paths.
Consequently, a comprehensive framework of XAI and its possible effects on user
behavior has been developed.
- Abstract(参考訳): 体系文学レビュー(SLR)の最終検索は2022年7月15日に行われた。
当初、私たちはScopus and Web of Scienceデータベースから1707のジャーナルとカンファレンスの記事を取り出しました。
対象と除外基準を適用し,SLRに58項目を選定した。
以上の結果から,フォーマット(説明表現形式),完全性(説明情報を含むすべての必要な情報を含むべきである),正確性(説明の正確性に関する情報),通貨(説明は最近の情報を含むべきである)の4次元が得られた。
さらに、説明の自動表現とともに、ユーザーは必要に応じて追加情報を要求することができる。
xai効果の5つの側面: 信頼、透明性、理解可能性、ユーザビリティ、公平性です。
また, 今後の研究課題を研究課題として問題視するために, 選択論文から得られた知識を, 可能な研究経路とともに検討した。
その結果,XAIの包括的枠組みとそのユーザ行動への影響が明らかになった。
関連論文リスト
- Explainable artificial intelligence approaches for brain-computer
interfaces: a review and design space [6.786321327136925]
本稿では、Brain-Computer Interfacesに適用された説明可能な人工知能技術の統合的な視点について述べる。
Brain-Computer Interfacesは、予測モデルを使用して、様々なハイテイクアプリケーションのために脳信号を解釈する。
BCI文学におけるXAIの統合的な視点は欠如している。
論文 参考訳(メタデータ) (2023-12-20T13:56:31Z) - Notion of Explainable Artificial Intelligence -- An Empirical
Investigation from A Users Perspective [0.3069335774032178]
本研究は、ユーザ中心の説明可能なAIを調査し、研究コンテキストとしてレコメンデーションシステムを検討することを目的とする。
我々は,推薦システムに関する質的データを収集するために,フォーカスグループインタビューを行った。
以上の結果から,エンドユーザーはオンデマンドの補足情報による非技術的かつ適切な説明を望んでいることが明らかとなった。
論文 参考訳(メタデータ) (2023-11-01T22:20:14Z) - Requirements for Explainability and Acceptance of Artificial
Intelligence in Collaborative Work [0.0]
本稿では,AIの説明可能性と受容の要件について考察する。
その結果,2つの主要なグループが,モデルの内部操作に関する情報を必要とする開発者であることが示唆された。
AIシステムの受容は、システムの機能や性能、プライバシ、倫理的考慮事項に関する情報に依存する。
論文 参考訳(メタデータ) (2023-06-27T11:36:07Z) - WebCPM: Interactive Web Search for Chinese Long-form Question Answering [104.676752359777]
LFQA(Long-form Question answering)は、複雑でオープンな質問に、段落長の詳細な回答で答えることを目的としている。
中国初のLFQAデータセットであるWebCPMを紹介する。
高品質な質問応答対5,500件,支援事実14,315件,Web検索121,330件を収集した。
論文 参考訳(メタデータ) (2023-05-11T14:47:29Z) - Artificial Intelligence in Concrete Materials: A Scientometric View [77.34726150561087]
本章は, コンクリート材料用AI研究の主目的と知識構造を明らかにすることを目的としている。
まず、1990年から2020年にかけて発行された389の雑誌記事が、ウェブ・オブ・サイエンスから検索された。
キーワード共起分析やドキュメント共起分析などのサイエントメトリックツールを用いて,研究分野の特徴と特徴を定量化した。
論文 参考訳(メタデータ) (2022-09-17T18:24:56Z) - Towards Complex Document Understanding By Discrete Reasoning [77.91722463958743]
VQA(Document Visual Question Answering)は、自然言語による質問に答えるために、視覚的に豊富なドキュメントを理解することを目的としている。
我々は3,067の文書ページと16,558の質問応答ペアからなる新しいドキュメントVQAデータセットTAT-DQAを紹介する。
我々は,テキスト,レイアウト,視覚画像など,多要素の情報を考慮に入れたMHSTという新しいモデルを開発し,異なるタイプの質問にインテリジェントに対処する。
論文 参考訳(メタデータ) (2022-07-25T01:43:19Z) - Explainable AI: current status and future directions [11.92436948211501]
説明可能な人工知能(XAI)は、人工知能(AI)分野における新たな研究分野である。
XAIは、AIが特定のソリューションをどのように取得したかを説明し、他の"wh"質問にも答えることができる。
本稿では,マルチメディア(テキスト,画像,音声,ビデオ)の観点から,これらの技術の概要を紹介する。
論文 参考訳(メタデータ) (2021-07-12T08:42:19Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - A Dataset of Information-Seeking Questions and Answers Anchored in
Research Papers [66.11048565324468]
1,585の自然言語処理論文に関する5,049の質問のデータセットを提示する。
各質問は、対応する論文のタイトルと要約のみを読むNLP実践者によって書かれ、質問は全文に存在する情報を求めます。
他のQAタスクでうまく機能する既存のモデルは、これらの質問に答える上ではうまく機能せず、論文全体から回答する際には、少なくとも27 F1ポイントパフォーマンスが低下します。
論文 参考訳(メタデータ) (2021-05-07T00:12:34Z) - Explainability in Deep Reinforcement Learning [68.8204255655161]
説明可能な強化学習(XRL)の実現に向けての最近の成果を概観する。
エージェントの振る舞いを正当化し、説明することが不可欠である重要な状況において、RLモデルのより良い説明可能性と解釈性は、まだブラックボックスと見なされているものの内部動作に関する科学的洞察を得るのに役立つ。
論文 参考訳(メタデータ) (2020-08-15T10:11:42Z) - Edge Intelligence: Architectures, Challenges, and Applications [22.26768649366329]
エッジインテリジェンス(Edge Intelligence)は、データ収集、キャッシュ、処理、分析のための一連の接続されたシステムとデバイスを指す。
この調査記事は、エッジインテリジェンスとその応用分野に関する包括的紹介を提供する。
論文 参考訳(メタデータ) (2020-03-26T22:24:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。