論文の概要: Explainable Artificial Intelligence (XAI) from a user perspective- A
synthesis of prior literature and problematizing avenues for future research
- arxiv url: http://arxiv.org/abs/2211.15343v1
- Date: Thu, 24 Nov 2022 20:15:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-29 15:57:11.268110
- Title: Explainable Artificial Intelligence (XAI) from a user perspective- A
synthesis of prior literature and problematizing avenues for future research
- Title(参考訳): ユーザの視点から見た説明可能な人工知能(XAI)-先行文献の合成と今後の研究への課題
- Authors: AKM Bahalul Haque, A.K.M. Najmul Islam, Patrick Mikalef
- Abstract要約: この結果は、フォーマット、完全性、正確性、および通貨である、AI説明を形成する4つの次元を示している。
説明の自動表現に加えて、ユーザーは必要に応じて追加情報を要求することができる。
また、XAI効果の5つの次元として、信頼、透明性、理解可能性、ユーザビリティ、公平性を見つけました。
- 参考スコア(独自算出の注目度): 0.5371337604556311
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The final search query for the Systematic Literature Review (SLR) was
conducted on 15th July 2022. Initially, we extracted 1707 journal and
conference articles from the Scopus and Web of Science databases. Inclusion and
exclusion criteria were then applied, and 58 articles were selected for the
SLR. The findings show four dimensions that shape the AI explanation, which are
format (explanation representation format), completeness (explanation should
contain all required information, including the supplementary information),
accuracy (information regarding the accuracy of the explanation), and currency
(explanation should contain recent information). Moreover, along with the
automatic representation of the explanation, the users can request additional
information if needed. We have also found five dimensions of XAI effects:
trust, transparency, understandability, usability, and fairness. In addition,
we investigated current knowledge from selected articles to problematize future
research agendas as research questions along with possible research paths.
Consequently, a comprehensive framework of XAI and its possible effects on user
behavior has been developed.
- Abstract(参考訳): 体系文学レビュー(SLR)の最終検索は2022年7月15日に行われた。
当初、私たちはScopus and Web of Scienceデータベースから1707のジャーナルとカンファレンスの記事を取り出しました。
対象と除外基準を適用し,SLRに58項目を選定した。
以上の結果から,フォーマット(説明表現形式),完全性(説明情報を含むすべての必要な情報を含むべきである),正確性(説明の正確性に関する情報),通貨(説明は最近の情報を含むべきである)の4次元が得られた。
さらに、説明の自動表現とともに、ユーザーは必要に応じて追加情報を要求することができる。
xai効果の5つの側面: 信頼、透明性、理解可能性、ユーザビリティ、公平性です。
また, 今後の研究課題を研究課題として問題視するために, 選択論文から得られた知識を, 可能な研究経路とともに検討した。
その結果,XAIの包括的枠組みとそのユーザ行動への影響が明らかになった。
関連論文リスト
- XAI-FUNGI: Dataset resulting from the user study on comprehensibility of explainable AI algorithms [5.775094401949666]
本稿では、説明可能な人工知能(XAI)アルゴリズムの理解度に関するユーザ研究の結果であるデータセットを紹介する。
研究参加者は149人の候補者から募集され, 菌学領域の専門家を代表する3つのグループを結成した。
データセットの主な部分には39のインタビュー書が含まれており、参加者は、食べられるキノコと食べられないキノコを区別するために訓練された機械学習モデルの意思決定の解釈に関する一連のタスクと質問を完了するよう求められた。
論文 参考訳(メタデータ) (2024-10-21T11:37:58Z) - How Mature is Requirements Engineering for AI-based Systems? A Systematic Mapping Study on Practices, Challenges, and Future Research Directions [5.6818729232602205]
既存のREメソッドが十分かどうか、あるいはこれらの課題に対処するために新しいメソッドが必要であるかどうかは不明だ。
既存のRE4AI研究は主に要件分析と導入に重点を置いており、ほとんどの実践はこれらの分野に適用されている。
私たちは、最も一般的な課題として、要件仕様、説明可能性、マシンラーニングエンジニアとエンドユーザのギャップを特定しました。
論文 参考訳(メタデータ) (2024-09-11T11:28:16Z) - Analyzing Human Questioning Behavior and Causal Curiosity through Natural Queries [91.70689724416698]
NatQuest(ナットクエスト)は、3つの異なるソースから自然発生の質問13,500件のコレクションである。
分析の結果,データセット内には因果的疑問(最大42%)が有意な存在であることが判明した。
論文 参考訳(メタデータ) (2024-05-30T17:55:28Z) - Gradient based Feature Attribution in Explainable AI: A Technical Review [13.848675695545909]
ブラックボックスAIモデルの急増は、内部メカニズムを説明し、信頼性を正当化する必要性を喚起している。
勾配に基づく説明は、ニューラルネットワークモデルに直接適用することができる。
アルゴリズムの性能を測定するために,人的評価と定量的評価の両方を導入する。
論文 参考訳(メタデータ) (2024-03-15T15:49:31Z) - Explainable artificial intelligence approaches for brain-computer
interfaces: a review and design space [6.786321327136925]
本稿では、Brain-Computer Interfacesに適用された説明可能な人工知能技術の統合的な視点について述べる。
Brain-Computer Interfacesは、予測モデルを使用して、様々なハイテイクアプリケーションのために脳信号を解釈する。
BCI文学におけるXAIの統合的な視点は欠如している。
論文 参考訳(メタデータ) (2023-12-20T13:56:31Z) - WebCPM: Interactive Web Search for Chinese Long-form Question Answering [104.676752359777]
LFQA(Long-form Question answering)は、複雑でオープンな質問に、段落長の詳細な回答で答えることを目的としている。
中国初のLFQAデータセットであるWebCPMを紹介する。
高品質な質問応答対5,500件,支援事実14,315件,Web検索121,330件を収集した。
論文 参考訳(メタデータ) (2023-05-11T14:47:29Z) - Artificial Intelligence in Concrete Materials: A Scientometric View [77.34726150561087]
本章は, コンクリート材料用AI研究の主目的と知識構造を明らかにすることを目的としている。
まず、1990年から2020年にかけて発行された389の雑誌記事が、ウェブ・オブ・サイエンスから検索された。
キーワード共起分析やドキュメント共起分析などのサイエントメトリックツールを用いて,研究分野の特徴と特徴を定量化した。
論文 参考訳(メタデータ) (2022-09-17T18:24:56Z) - Towards Complex Document Understanding By Discrete Reasoning [77.91722463958743]
VQA(Document Visual Question Answering)は、自然言語による質問に答えるために、視覚的に豊富なドキュメントを理解することを目的としている。
我々は3,067の文書ページと16,558の質問応答ペアからなる新しいドキュメントVQAデータセットTAT-DQAを紹介する。
我々は,テキスト,レイアウト,視覚画像など,多要素の情報を考慮に入れたMHSTという新しいモデルを開発し,異なるタイプの質問にインテリジェントに対処する。
論文 参考訳(メタデータ) (2022-07-25T01:43:19Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - A Dataset of Information-Seeking Questions and Answers Anchored in
Research Papers [66.11048565324468]
1,585の自然言語処理論文に関する5,049の質問のデータセットを提示する。
各質問は、対応する論文のタイトルと要約のみを読むNLP実践者によって書かれ、質問は全文に存在する情報を求めます。
他のQAタスクでうまく機能する既存のモデルは、これらの質問に答える上ではうまく機能せず、論文全体から回答する際には、少なくとも27 F1ポイントパフォーマンスが低下します。
論文 参考訳(メタデータ) (2021-05-07T00:12:34Z) - Edge Intelligence: Architectures, Challenges, and Applications [22.26768649366329]
エッジインテリジェンス(Edge Intelligence)は、データ収集、キャッシュ、処理、分析のための一連の接続されたシステムとデバイスを指す。
この調査記事は、エッジインテリジェンスとその応用分野に関する包括的紹介を提供する。
論文 参考訳(メタデータ) (2020-03-26T22:24:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。