論文の概要: Explainable Artificial Intelligence Methods in Combating Pandemics: A
Systematic Review
- arxiv url: http://arxiv.org/abs/2112.12705v2
- Date: Sat, 25 Dec 2021 05:06:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-28 12:16:59.757925
- Title: Explainable Artificial Intelligence Methods in Combating Pandemics: A
Systematic Review
- Title(参考訳): 燃焼パンデミックにおける説明可能な人工知能手法:システムレビュー
- Authors: Felipe Giuste, Wenqi Shi, Yuanda Zhu, Tarun Naren, Monica Isgut, Ying
Sha, Li Tong, Mitali Gupte, and May D. Wang
- Abstract要約: 新型コロナウイルス(COVID-19)パンデミックにおける人工知能の影響は、モデルの透明性の欠如によって大幅に制限された。
XAIをうまく利用すれば、モデルの性能を改善し、エンドユーザに信頼を与え、ユーザの意思決定に影響を与えるのに必要な価値を提供することができる。
- 参考スコア(独自算出の注目度): 7.140215556873923
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite the myriad peer-reviewed papers demonstrating novel Artificial
Intelligence (AI)-based solutions to COVID-19 challenges during the pandemic,
few have made significant clinical impact. The impact of artificial
intelligence during the COVID-19 pandemic was greatly limited by lack of model
transparency. This systematic review examines the use of Explainable Artificial
Intelligence (XAI) during the pandemic and how its use could overcome barriers
to real-world success. We find that successful use of XAI can improve model
performance, instill trust in the end-user, and provide the value needed to
affect user decision-making. We introduce the reader to common XAI techniques,
their utility, and specific examples of their application. Evaluation of XAI
results is also discussed as an important step to maximize the value of
AI-based clinical decision support systems. We illustrate the classical,
modern, and potential future trends of XAI to elucidate the evolution of novel
XAI techniques. Finally, we provide a checklist of suggestions during the
experimental design process supported by recent publications. Common challenges
during the implementation of AI solutions are also addressed with specific
examples of potential solutions. We hope this review may serve as a guide to
improve the clinical impact of future AI-based solutions.
- Abstract(参考訳): 新型コロナウイルス感染症(covid-19)に対する新しいai(人工知能)ベースのソリューションを実証する無数の査読論文があるが、臨床的な影響はほとんどない。
新型コロナウイルスのパンデミックにおける人工知能の影響は、モデルの透明性の欠如によって大幅に制限された。
この系統的なレビューでは、パンデミックにおける説明可能な人工知能(XAI)の使用と、実際の成功への障壁を克服する方法について検討する。
XAIを成功させることで、モデルの性能を改善し、エンドユーザに信頼を与え、ユーザの意思決定に影響を与えるのに必要な価値を提供する。
我々は,一般的なXAI技術,その実用性,アプリケーションの具体的な例について紹介する。
また,AIに基づく臨床意思決定支援システムの価値を最大化するための重要なステップとして,XAI結果の評価も議論されている。
我々は,新しいXAI技術の進化を解明するために,XAIの古典的,近代的,将来的な動向を説明する。
最後に、最近の出版物がサポートする実験的な設計プロセス中に提案のチェックリストを提供する。
aiソリューションの実装における一般的な課題は、潜在的なソリューションの具体例で対処される。
このレビューが、将来のAIベースのソリューションの臨床的影響を改善するためのガイドになることを期待している。
関連論文リスト
- Study on the Helpfulness of Explainable Artificial Intelligence [0.0]
法律、ビジネス、倫理的要件は、効果的なXAIの使用を動機付けている。
本稿では,ユーザがプロキシタスクをうまく実行する能力を通じて,XAI手法を評価することを提案する。
言い換えれば、人間の意思決定におけるXAIの有用性について論じる。
論文 参考訳(メタデータ) (2024-10-14T14:03:52Z) - How Human-Centered Explainable AI Interface Are Designed and Evaluated: A Systematic Survey [48.97104365617498]
Em Explainable Interfaces (EIs) の登場する領域は,XAI のユーザインターフェースとユーザエクスペリエンス設計に重点を置いている。
本稿では,人間とXAIの相互作用の現在の動向と,EI設計・開発に向けた将来的な方向性を明らかにするために,53の出版物を体系的に調査する。
論文 参考訳(メタデータ) (2024-03-21T15:44:56Z) - How much informative is your XAI? A decision-making assessment task to
objectively measure the goodness of explanations [53.01494092422942]
XAIに対する個人化アプローチとユーザ中心アプローチの数は、近年急速に増加している。
ユーザ中心のXAIアプローチがユーザとシステム間のインタラクションに肯定的な影響を与えることが明らかとなった。
我々は,XAIシステムの良否を客観的かつ定量的に評価するための評価課題を提案する。
論文 参考訳(メタデータ) (2023-12-07T15:49:39Z) - Explainable AI applications in the Medical Domain: a systematic review [1.4419517737536707]
医療AIの分野は、ユーザー信頼の構築、規制の遵守、倫理的にデータの利用など、さまざまな課題に直面している。
本稿では,近年発行されている198記事の代表的サンプルをもとに,XAIソリューションの医療意思決定支援への展開に関する文献的考察を行う。
論文 参考訳(メタデータ) (2023-08-10T08:12:17Z) - Impact Of Explainable AI On Cognitive Load: Insights From An Empirical
Study [0.0]
本研究は、新型コロナウイルスのユースケースを用いて、実装に依存しないXAI説明型の認知負荷、タスクパフォーマンス、タスク時間を測定する。
これらの説明型は, エンドユーザの認知負荷, タスクパフォーマンス, タスク時間に強く影響を及ぼすことがわかった。
論文 参考訳(メタデータ) (2023-04-18T09:52:09Z) - A Brief Review of Explainable Artificial Intelligence in Healthcare [7.844015105790313]
XAIは、AIアプリケーションを構築するための技術と方法を指す。
モデル説明可能性と解釈可能性は、医療実践におけるAIモデルのデプロイを成功させる上で不可欠である。
論文 参考訳(メタデータ) (2023-04-04T05:41:57Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - Connecting Algorithmic Research and Usage Contexts: A Perspective of
Contextualized Evaluation for Explainable AI [65.44737844681256]
説明可能なAI(XAI)を評価する方法に関するコンセンサスの欠如は、この分野の進歩を妨げる。
このギャップを埋める一つの方法は、異なるユーザ要求を考慮に入れた評価方法を開発することである、と我々は主張する。
論文 参考訳(メタデータ) (2022-06-22T05:17:33Z) - Unbox the Black-box for the Medical Explainable AI via Multi-modal and
Multi-centre Data Fusion: A Mini-Review, Two Showcases and Beyond [3.4031539425106683]
説明可能な人工知能(XAI)は、AIシステムのブラックボックスの選択方法のアンボックスを目的とした、機械学習の新たな研究トピックである。
機械学習アルゴリズムの多くは、意思決定の方法と理由を明らかにしない。
XAIは、ディープラーニングを利用したアプリケーション、特に医学や医療研究において、ますます重要になっている。
論文 参考訳(メタデータ) (2021-02-03T10:56:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。