論文の概要: Evaluating the Explainable AI Method Grad-CAM for Breath Classification on Newborn Time Series Data
- arxiv url: http://arxiv.org/abs/2405.07590v1
- Date: Mon, 13 May 2024 09:53:25 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-14 14:15:10.713720
- Title: Evaluating the Explainable AI Method Grad-CAM for Breath Classification on Newborn Time Series Data
- Title(参考訳): 新生児時系列データを用いたブレス分類のための説明可能なAI手法Grad-CAMの評価
- Authors: Camelia Oprea, Mike Grüne, Mateusz Buglowski, Lena Olivier, Thorsten Orlikowsky, Stefan Kowalewski, Mark Schoberer, André Stollenwerk,
- Abstract要約: 説明可能な人工知能は、意思決定プロセスに関する洞察を提供することで、このギャップを埋めようとしている。
本稿では,説明手法Grad-CAMのユーザスタディに基づく評価と,呼吸の分類のためのニューラルネットワークへの応用を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: With the digitalization of health care systems, artificial intelligence becomes more present in medicine. Especially machine learning shows great potential for complex tasks such as time series classification, usually at the cost of transparency and comprehensibility. This leads to a lack of trust by humans and thus hinders its active usage. Explainable artificial intelligence tries to close this gap by providing insight into the decision-making process, the actual usefulness of its different methods is however unclear. This paper proposes a user study based evaluation of the explanation method Grad-CAM with application to a neural network for the classification of breaths in time series neonatal ventilation data. We present the perceived usefulness of the explainability method by different stakeholders, exposing the difficulty to achieve actual transparency and the wish for more in-depth explanations by many of the participants.
- Abstract(参考訳): 医療システムのデジタル化により、人工知能は医療においてより存在感を増す。
特に機械学習は、時系列分類のような複雑なタスクには大きな可能性を秘めている。
これは、人間による信頼の欠如を招き、活発な使用を妨げる。
説明可能な人工知能は、意思決定プロセスに関する洞察を提供することで、このギャップを埋めようとしている。
本稿では,Grad-CAMの説明手法のユーザスタディに基づく評価と,時系列新生児換気データにおける呼吸の分類のためのニューラルネットワークへの応用を提案する。
本稿では,様々な利害関係者による説明可能性手法の有用性について考察し,実際の透明性を達成することの難しさと,多くの参加者によるより深い説明の希望を明らかにする。
関連論文リスト
- On the Value of Labeled Data and Symbolic Methods for Hidden Neuron Activation Analysis [1.55858752644861]
最先端技術は、隠されたノードのアクティベーションが、場合によっては人間にとって意味のある方法で解釈可能であることを示している。
本稿では,本手法が意味のある解釈を提供することを示す,新しいモデル非依存のポストホック説明可能なAI手法を提案する。
論文 参考訳(メタデータ) (2024-04-21T07:57:45Z) - NeuroExplainer: Fine-Grained Attention Decoding to Uncover Cortical
Development Patterns of Preterm Infants [73.85768093666582]
我々はNeuroExplainerと呼ばれる説明可能な幾何学的深層ネットワークを提案する。
NeuroExplainerは、早産に伴う幼児の皮質発達パターンの解明に使用される。
論文 参考訳(メタデータ) (2023-01-01T12:48:12Z) - Analysis of Explainable Artificial Intelligence Methods on Medical Image
Classification [0.0]
画像分類などのコンピュータビジョンタスクにおけるディープラーニングの利用は、そのようなシステムの性能を急速に向上させてきた。
医用画像分類システムは、精度が高く、多くのタスクにおいてヒトの医師と同等に近いため、採用されている。
ブラックボックスモデルに関する洞察を得るために使用されている研究技術は、説明可能な人工知能(XAI)の分野にある。
論文 参考訳(メタデータ) (2022-12-10T06:17:43Z) - Federated Cycling (FedCy): Semi-supervised Federated Learning of
Surgical Phases [57.90226879210227]
FedCyは、FLと自己教師付き学習を組み合わせた半教師付き学習(FSSL)手法で、ラベル付きビデオとラベルなしビデオの両方の分散データセットを利用する。
外科的段階の自動認識作業において,最先端のFSSL法よりも顕著な性能向上を示した。
論文 参考訳(メタデータ) (2022-03-14T17:44:53Z) - Leveraging Human Selective Attention for Medical Image Analysis with
Limited Training Data [72.1187887376849]
選択的な注意機構は、注意散らしの存在を無視することで、認知システムがタスク関連視覚的手がかりに焦点を合わせるのに役立つ。
本稿では,医療画像解析タスクにおいて,小さなトレーニングデータを用いたガベージを利用したフレームワークを提案する。
本手法は腫瘍の3次元分割と2次元胸部X線分類において優れた性能を示す。
論文 参考訳(メタデータ) (2021-12-02T07:55:25Z) - Transparency of Deep Neural Networks for Medical Image Analysis: A
Review of Interpretability Methods [3.3918638314432936]
ディープニューラルネットワークは、多くのタスクにおいて、臨床医と同じまたはより良いパフォーマンスを示している。
現在のディープ・ニューラル・ソリューションは、意思決定プロセスに関する具体的な知識の欠如からブラックボックスと呼ばれる。
通常の臨床ワークフローに組み込む前に、ディープニューラルネットワークの解釈可能性を保証する必要がある。
論文 参考訳(メタデータ) (2021-11-01T01:42:26Z) - Discriminative Attribution from Counterfactuals [64.94009515033984]
本稿では,特徴属性と反実的説明を組み合わせたニューラルネットワークの解釈可能性について述べる。
本手法は,特徴属性法の性能を客観的に評価するために有効であることを示す。
論文 参考訳(メタデータ) (2021-09-28T00:53:34Z) - Preserving Privacy in Human-Motion Affect Recognition [4.753703852165805]
本研究は,3次元の時間的関節信号と手動抽出特徴を用いた感情認識における既存手法の有効性を評価する。
本稿では,マルチエンコーダ自動エンコーダ深層ニューラルネットワークを訓練し,人間の動作特徴の不連続な潜在表現を学習するクロスサブジェクトトランスファー学習手法を提案する。
論文 参考訳(メタデータ) (2021-05-09T15:26:21Z) - An Active Learning Method for Diabetic Retinopathy Classification with
Uncertainty Quantification [3.7220380160016626]
不確実性定量のためのハイブリッドモデルと、不一致データを注釈付けするためのアクティブラーニングアプローチを提案する。
糖尿病網膜症分類の枠組みについて検討し,様々な指標で最先端のパフォーマンスを達成した。
論文 参考訳(メタデータ) (2020-12-24T16:59:15Z) - This is not the Texture you are looking for! Introducing Novel
Counterfactual Explanations for Non-Experts using Generative Adversarial
Learning [59.17685450892182]
反実用説明システムは、入力画像を変更して反実用推論を可能にする。
本稿では, 対向画像から画像への変換技術に基づく, 対向画像の説明を新たに生成する手法を提案する。
その結果,我々のアプローチは,2つの最先端技術システムよりも,メンタルモデル,説明満足度,信頼度,感情,自己効力に関して有意に優れた結果をもたらすことがわかった。
論文 参考訳(メタデータ) (2020-12-22T10:08:05Z) - Explaining Clinical Decision Support Systems in Medical Imaging using
Cycle-Consistent Activation Maximization [112.2628296775395]
ディープニューラルネットワークを用いた臨床意思決定支援は、着実に関心が高まりつつあるトピックとなっている。
臨床医は、その根底にある意思決定プロセスが不透明で理解しにくいため、この技術の採用をためらうことが多い。
そこで我々は,より小さなデータセットであっても,分類器決定の高品質な可視化を生成するCycleGANアクティベーションに基づく,新たな意思決定手法を提案する。
論文 参考訳(メタデータ) (2020-10-09T14:39:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。