論文の概要: Achievements and Challenges in Explaining Deep Learning based
Computer-Aided Diagnosis Systems
- arxiv url: http://arxiv.org/abs/2011.13169v1
- Date: Thu, 26 Nov 2020 08:08:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-20 08:46:04.675133
- Title: Achievements and Challenges in Explaining Deep Learning based
Computer-Aided Diagnosis Systems
- Title(参考訳): 深層学習に基づくコンピュータ支援診断システム解説の成果と課題
- Authors: Adriano Lucieri, Muhammad Naseer Bajwa, Andreas Dengel, Sheraz Ahmed
- Abstract要約: 我々は、既知の疾患基準の検証のための説明可能なAIの開発における初期の成果について論じる。
我々は、臨床意思決定支援ツールとしてのAIの実践的応用の道に立つ、残る課題をいくつか強調する。
- 参考スコア(独自算出の注目度): 4.9449660544238085
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Remarkable success of modern image-based AI methods and the resulting
interest in their applications in critical decision-making processes has led to
a surge in efforts to make such intelligent systems transparent and
explainable. The need for explainable AI does not stem only from ethical and
moral grounds but also from stricter legislation around the world mandating
clear and justifiable explanations of any decision taken or assisted by AI.
Especially in the medical context where Computer-Aided Diagnosis can have a
direct influence on the treatment and well-being of patients, transparency is
of utmost importance for safe transition from lab research to real world
clinical practice. This paper provides a comprehensive overview of current
state-of-the-art in explaining and interpreting Deep Learning based algorithms
in applications of medical research and diagnosis of diseases. We discuss early
achievements in development of explainable AI for validation of known disease
criteria, exploration of new potential biomarkers, as well as methods for the
subsequent correction of AI models. Various explanation methods like visual,
textual, post-hoc, ante-hoc, local and global have been thoroughly and
critically analyzed. Subsequently, we also highlight some of the remaining
challenges that stand in the way of practical applications of AI as a clinical
decision support tool and provide recommendations for the direction of future
research.
- Abstract(参考訳): 現代の画像ベースのAI手法の顕著な成功と、重要な意思決定プロセスにおける彼らの応用への関心は、そのようなインテリジェントなシステムを透明で説明可能なものにするための努力の急増につながった。
説明可能なAIの必要性は、倫理的および道徳的な根拠だけでなく、AIによって決定されたり支援されたりすることを明確かつ正当化可能な説明を義務付ける世界中の厳格な法律にも起因している。
特に、コンピュータ支援診断が患者の治療や健康に直接的な影響を与えうる医学的文脈では、透明性は研究室研究から実際の臨床実践への安全な移行にとって最も重要である。
本稿では,Deep Learningベースのアルゴリズムを医学研究や病気の診断に応用した解説・解釈における現状を概観する。
我々は、既知の疾患基準の検証、新しい潜在的なバイオマーカーの探索、およびその後のAIモデルの修正方法に関する説明可能なAIの開発における初期の成果について論じる。
視覚的,テキスト的,ポストホック,アントホック,ローカル,グローバルといった様々な説明手法が徹底的かつ批判的に分析されてきた。
続いて、臨床意思決定支援ツールとしてのAIの実践的応用の道に立つ残りの課題を強調し、今後の研究の方向性を推奨する。
関連論文リスト
- Artificial intelligence techniques in inherited retinal diseases: A review [19.107474958408847]
遺伝性網膜疾患(英: InheritedRetinal disease、IRD)は、進行性視力低下を引き起こす多様な遺伝性疾患群であり、労働年齢層の視覚障害の主要な原因である。
人工知能(AI)の最近の進歩は、これらの課題に対する有望な解決策を提供する。
このレビューは既存の研究を統合し、ギャップを特定し、IRDの診断と管理におけるAIの可能性の概要を提供する。
論文 参考訳(メタデータ) (2024-10-10T03:14:51Z) - AI-Driven Healthcare: A Survey on Ensuring Fairness and Mitigating Bias [2.398440840890111]
AIアプリケーションは、診断精度、治療のパーソナライゼーション、患者の結果予測を大幅に改善した。
これらの進歩は、実質的な倫理的・公正性の課題ももたらした。
これらのバイアスは、医療提供の格差をもたらし、異なる人口集団の診断精度と治療結果に影響を与える可能性がある。
論文 参考訳(メタデータ) (2024-07-29T02:39:17Z) - A Survey of Artificial Intelligence in Gait-Based Neurodegenerative Disease Diagnosis [51.07114445705692]
神経変性疾患(神経変性疾患、ND)は、伝統的に医学的診断とモニタリングのために広範囲の医療資源と人的努力を必要とする。
重要な疾患関連運動症状として、ヒトの歩行を利用して異なるNDを特徴づけることができる。
人工知能(AI)モデルの現在の進歩は、NDの識別と分類のための自動歩行分析を可能にする。
論文 参考訳(メタデータ) (2024-05-21T06:44:40Z) - The Limits of Perception: Analyzing Inconsistencies in Saliency Maps in XAI [0.0]
説明可能な人工知能(XAI)は、AIの意思決定プロセスの解明に不可欠である。
ブラックボックス」として機能し、その理由が曖昧でアクセスできないため、誤診のリスクが高まる。
この透明性へのシフトは、単に有益であるだけでなく、医療におけるAI統合の責任を負うための重要なステップでもある。
論文 参考訳(メタデータ) (2024-03-23T02:15:23Z) - Opening the Black-Box: A Systematic Review on Explainable AI in Remote Sensing [51.524108608250074]
ブラックボックス機械学習アプローチは、リモートセンシングにおける知識抽出における主要なモデリングパラダイムとなっている。
我々は、この分野における重要なトレンドを特定するための体系的なレビューを行い、新しい説明可能なAIアプローチに光を当てた。
また,課題と将来的な研究方向性について,より詳細な展望を述べる。
論文 参考訳(メタデータ) (2024-02-21T13:19:58Z) - Interpretable Medical Imagery Diagnosis with Self-Attentive
Transformers: A Review of Explainable AI for Health Care [2.7195102129095003]
ビジョントランスフォーマー(ViT)は、自己注意モジュールの恩恵を受け、最先端のコンピュータビジョンモデルとして登場した。
ディープラーニングモデルは複雑で、しばしば"ブラックボックス"として扱われる。
本稿では、最近のViTの進歩と、ViTの意思決定プロセスを理解するための解釈的アプローチを要約する。
論文 参考訳(メタデータ) (2023-09-01T05:01:52Z) - FUTURE-AI: International consensus guideline for trustworthy and deployable artificial intelligence in healthcare [73.78776682247187]
医療AIに関連する技術的、臨床的、倫理的、法的リスクに関する懸念が高まっている。
この研究は、Future-AIガイドラインを、医療における信頼できるAIツールの開発とデプロイを導くための最初の国際コンセンサスフレームワークとして説明している。
論文 参考訳(メタデータ) (2023-08-11T10:49:05Z) - Validating polyp and instrument segmentation methods in colonoscopy through Medico 2020 and MedAI 2021 Challenges [58.32937972322058]
メディコオートマチックポリープセグメンテーション(Medico 2020)と「メディコ:医療画像の透明性(MedAI 2021)」コンペティション。
本報告では, それぞれのコントリビューションを包括的に分析し, ベストパフォーマンスメソッドの強さを強調し, クリニックへの臨床翻訳の可能性について考察する。
論文 参考訳(メタデータ) (2023-07-30T16:08:45Z) - A Brief Review of Explainable Artificial Intelligence in Healthcare [7.844015105790313]
XAIは、AIアプリケーションを構築するための技術と方法を指す。
モデル説明可能性と解釈可能性は、医療実践におけるAIモデルのデプロイを成功させる上で不可欠である。
論文 参考訳(メタデータ) (2023-04-04T05:41:57Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - Evaluating Explainable AI on a Multi-Modal Medical Imaging Task: Can
Existing Algorithms Fulfill Clinical Requirements? [42.75635888823057]
Heatmapは、AIモデルの予測の重要な特徴を強調する、説明の一形態である。
マルチモーダルな医用画像の意思決定において,ヒートマップがどの程度優れているかは分かっていない。
本稿では,この臨床的に重要であるが技術的に無視される問題に対処するために,MSFI(Modality-specific feature importance)尺度を提案する。
論文 参考訳(メタデータ) (2022-03-12T17:18:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。