論文の概要: Explainable AI for clinical and remote health applications: a survey on
tabular and time series data
- arxiv url: http://arxiv.org/abs/2209.06528v1
- Date: Wed, 14 Sep 2022 10:01:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-15 12:56:19.169632
- Title: Explainable AI for clinical and remote health applications: a survey on
tabular and time series data
- Title(参考訳): 臨床・遠隔医療応用のための説明可能なAI:表と時系列データに関する調査
- Authors: Flavio Di Martino, Franca Delmastro
- Abstract要約: XAIは、特に医療において、さまざまな研究領域やデータタイプに同じ関心を集めていない点に注意が必要だ。
本稿は,過去5年間の文献を概観し,生成した説明のタイプと,それらの関連性や品質を評価するための取り組みについて述べる。
- 参考スコア(独自算出の注目度): 3.655021726150368
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Nowadays Artificial Intelligence (AI) has become a fundamental component of
healthcare applications, both clinical and remote, but the best performing AI
systems are often too complex to be self-explaining. Explainable AI (XAI)
techniques are defined to unveil the reasoning behind the system's predictions
and decisions, and they become even more critical when dealing with sensitive
and personal health data. It is worth noting that XAI has not gathered the same
attention across different research areas and data types, especially in
healthcare. In particular, many clinical and remote health applications are
based on tabular and time series data, respectively, and XAI is not commonly
analysed on these data types, while computer vision and Natural Language
Processing (NLP) are the reference applications. To provide an overview of XAI
methods that are most suitable for tabular and time series data in the
healthcare domain, this paper provides a review of the literature in the last 5
years, illustrating the type of generated explanations and the efforts provided
to evaluate their relevance and quality. Specifically, we identify clinical
validation, consistency assessment, objective and standardised quality
evaluation, and human-centered quality assessment as key features to ensure
effective explanations for the end users. Finally, we highlight the main
research challenges in the field as well as the limitations of existing XAI
methods.
- Abstract(参考訳): 現在、人工知能(AI)は、臨床と遠隔の両方で医療アプリケーションの基本コンポーネントとなっているが、最高のAIシステムは、しばしば複雑すぎて自己説明できない。
説明可能なai(xai)技術は、システムの予測と決定の背後にある理由を明らかにするために定義され、機密性の高い個人的健康データを扱う場合にさらに重要になる。
XAIは、特に医療において、さまざまな研究領域やデータタイプに同じ関心を集めていない点に注意が必要だ。
特に、多くの臨床および遠隔医療アプリケーションは、それぞれ表データと時系列データに基づいており、xaiはこれらのデータ型について一般的に分析されていないが、コンピュータビジョンと自然言語処理(nlp)は参照アプリケーションである。
医療領域における表や時系列データに最も適したXAI手法の概要について,本論文では,過去5年間の文献を概観し,生成した説明のタイプとそれらの関連性や品質を評価するための取り組みについて述べる。
具体的には, 臨床検証, 一貫性評価, 客観的および標準化された品質評価, および人間中心品質評価を, エンドユーザの効果的な説明を確保するための重要な特徴として特定する。
最後に、この分野における主な研究課題と既存のXAI手法の限界について述べる。
関連論文リスト
- TrialBench: Multi-Modal Artificial Intelligence-Ready Clinical Trial Datasets [57.067409211231244]
本稿では,マルチモーダルデータ(例えば,薬物分子,疾患コード,テキスト,分類・数値的特徴)と臨床治験設計における8つの重要な予測課題をカバーするAIreadyデータセットを精巧にキュレートした。
データセットのユーザビリティと信頼性を確保するため、各タスクに基本的な検証方法を提供する。
このようなオープンアクセスデータセットが利用可能になることは、臨床試験設計のための高度なAIアプローチの開発を促進することを期待する。
論文 参考訳(メタデータ) (2024-06-30T09:13:10Z) - A Survey of Artificial Intelligence in Gait-Based Neurodegenerative Disease Diagnosis [51.07114445705692]
神経変性疾患(神経変性疾患、ND)は、伝統的に医学的診断とモニタリングのために広範囲の医療資源と人的努力を必要とする。
重要な疾患関連運動症状として、ヒトの歩行を利用して異なるNDを特徴づけることができる。
人工知能(AI)モデルの現在の進歩は、NDの識別と分類のための自動歩行分析を可能にする。
論文 参考訳(メタデータ) (2024-05-21T06:44:40Z) - Validating polyp and instrument segmentation methods in colonoscopy through Medico 2020 and MedAI 2021 Challenges [58.32937972322058]
メディコオートマチックポリープセグメンテーション(Medico 2020)と「メディコ:医療画像の透明性(MedAI 2021)」コンペティション。
本報告では, それぞれのコントリビューションを包括的に分析し, ベストパフォーマンスメソッドの強さを強調し, クリニックへの臨床翻訳の可能性について考察する。
論文 参考訳(メタデータ) (2023-07-30T16:08:45Z) - Explainable AI for Malnutrition Risk Prediction from m-Health and
Clinical Data [3.093890460224435]
異種m-healthデータに基づく早期かつ説明可能な栄養失調リスク検出のための新しいAIフレームワークを提案する。
対象非依存および個人化予測を含む広範囲なモデル評価を行った。
また,グローバルモデル記述を抽出するベンチマークXAI法についても検討した。
論文 参考訳(メタデータ) (2023-05-31T08:07:35Z) - A Brief Review of Explainable Artificial Intelligence in Healthcare [7.844015105790313]
XAIは、AIアプリケーションを構築するための技術と方法を指す。
モデル説明可能性と解釈可能性は、医療実践におけるAIモデルのデプロイを成功させる上で不可欠である。
論文 参考訳(メタデータ) (2023-04-04T05:41:57Z) - Informing clinical assessment by contextualizing post-hoc explanations
of risk prediction models in type-2 diabetes [50.8044927215346]
本研究は, 合併症リスク予測のシナリオを考察し, 患者の臨床状態に関する文脈に焦点を当てる。
我々は、リスク予測モデル推論に関する文脈を提示し、その受容性を評価するために、最先端のLLMをいくつか採用する。
本論文は,実世界における臨床症例における文脈説明の有効性と有用性を明らかにする最初のエンドツーエンド分析の1つである。
論文 参考訳(メタデータ) (2023-02-11T18:07:11Z) - Benchmark datasets driving artificial intelligence development fail to
capture the needs of medical professionals [4.799783526620609]
臨床およびバイオメディカル自然言語処理(NLP)の幅広い領域に関するデータセットとベンチマークのカタログを公開した。
450のNLPデータセットが手動で体系化され、豊富なメタデータで注釈付けされた。
我々の分析は、AIベンチマークの直接臨床関連性は乏しく、臨床医が対応したい仕事のほとんどをカバーできないことを示唆している。
論文 参考訳(メタデータ) (2022-01-18T15:05:28Z) - CBLUE: A Chinese Biomedical Language Understanding Evaluation Benchmark [51.38557174322772]
中国初のバイオメディカル言語理解評価ベンチマークを提示する。
名前付きエンティティ認識、情報抽出、臨床診断正規化、単文/文対分類を含む自然言語理解タスクのコレクションである。
本研究は,現在の11種類の中国モデルによる実験結果について報告し,その実験結果から,現在最先端のニューラルモデルがヒトの天井よりもはるかに悪い性能を示すことが示された。
論文 参考訳(メタデータ) (2021-06-15T12:25:30Z) - The Medkit-Learn(ing) Environment: Medical Decision Modelling through
Simulation [81.72197368690031]
医用シーケンシャルな意思決定に特化して設計された新しいベンチマークスイートを提案する。
Medkit-Learn(ing) Environmentは、高忠実度合成医療データに簡単かつ簡単にアクセスできるPythonパッケージである。
論文 参考訳(メタデータ) (2021-06-08T10:38:09Z) - Detecting Spurious Correlations with Sanity Tests for Artificial
Intelligence Guided Radiology Systems [22.249702822013045]
放射線学におけるAIの展開における重要な要素は、開発システムの有効性と安全性への信頼を得ることである。
現在のゴールド標準アプローチは、一般化データセットのパフォーマンスの分析検証を行うことである。
間違った理由から,システムが開発データに対して良好に動作するかどうかを特定するための,一連の健全性テストについて述べる。
論文 参考訳(メタデータ) (2021-03-04T14:14:05Z) - Survey of XAI in digital pathology [3.4591414173342643]
本稿では,デジタル病理学におけるXAIについて,特定の特徴とニーズを持つ医用画像のサブディシプリタであるXAIについて紹介する。
病理画像診断における深層学習手法に関する現在のXAI技術の概要について概説する。
そこで我々は,XAIランドスケープの不可欠な部分として不確実性推定手法を取り入れた。
論文 参考訳(メタデータ) (2020-08-14T13:11:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。