論文の概要: Achievements and Challenges in Explaining Deep Learning based
Computer-Aided Diagnosis Systems
- arxiv url: http://arxiv.org/abs/2011.13169v1
- Date: Thu, 26 Nov 2020 08:08:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-20 08:46:04.675133
- Title: Achievements and Challenges in Explaining Deep Learning based
Computer-Aided Diagnosis Systems
- Title(参考訳): 深層学習に基づくコンピュータ支援診断システム解説の成果と課題
- Authors: Adriano Lucieri, Muhammad Naseer Bajwa, Andreas Dengel, Sheraz Ahmed
- Abstract要約: 我々は、既知の疾患基準の検証のための説明可能なAIの開発における初期の成果について論じる。
我々は、臨床意思決定支援ツールとしてのAIの実践的応用の道に立つ、残る課題をいくつか強調する。
- 参考スコア(独自算出の注目度): 4.9449660544238085
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Remarkable success of modern image-based AI methods and the resulting
interest in their applications in critical decision-making processes has led to
a surge in efforts to make such intelligent systems transparent and
explainable. The need for explainable AI does not stem only from ethical and
moral grounds but also from stricter legislation around the world mandating
clear and justifiable explanations of any decision taken or assisted by AI.
Especially in the medical context where Computer-Aided Diagnosis can have a
direct influence on the treatment and well-being of patients, transparency is
of utmost importance for safe transition from lab research to real world
clinical practice. This paper provides a comprehensive overview of current
state-of-the-art in explaining and interpreting Deep Learning based algorithms
in applications of medical research and diagnosis of diseases. We discuss early
achievements in development of explainable AI for validation of known disease
criteria, exploration of new potential biomarkers, as well as methods for the
subsequent correction of AI models. Various explanation methods like visual,
textual, post-hoc, ante-hoc, local and global have been thoroughly and
critically analyzed. Subsequently, we also highlight some of the remaining
challenges that stand in the way of practical applications of AI as a clinical
decision support tool and provide recommendations for the direction of future
research.
- Abstract(参考訳): 現代の画像ベースのAI手法の顕著な成功と、重要な意思決定プロセスにおける彼らの応用への関心は、そのようなインテリジェントなシステムを透明で説明可能なものにするための努力の急増につながった。
説明可能なAIの必要性は、倫理的および道徳的な根拠だけでなく、AIによって決定されたり支援されたりすることを明確かつ正当化可能な説明を義務付ける世界中の厳格な法律にも起因している。
特に、コンピュータ支援診断が患者の治療や健康に直接的な影響を与えうる医学的文脈では、透明性は研究室研究から実際の臨床実践への安全な移行にとって最も重要である。
本稿では,Deep Learningベースのアルゴリズムを医学研究や病気の診断に応用した解説・解釈における現状を概観する。
我々は、既知の疾患基準の検証、新しい潜在的なバイオマーカーの探索、およびその後のAIモデルの修正方法に関する説明可能なAIの開発における初期の成果について論じる。
視覚的,テキスト的,ポストホック,アントホック,ローカル,グローバルといった様々な説明手法が徹底的かつ批判的に分析されてきた。
続いて、臨床意思決定支援ツールとしてのAIの実践的応用の道に立つ残りの課題を強調し、今後の研究の方向性を推奨する。
関連論文リスト
- Opening the Black-Box: A Systematic Review on Explainable AI in Remote
Sensing [52.110707276938]
ブラックボックス機械学習アプローチは、リモートセンシングにおける知識抽出のための主要なモデリングパラダイムとなっている。
我々は、リモートセンシングにおいて、説明可能なAIがどのように使われているかを示す重要なトレンドを特定するために、体系的なレビューを行う。
私たちは、新しい説明可能なAIアプローチと、特定のリモートセンシング課題に対処する新たな方向性に光を当てました。
論文 参考訳(メタデータ) (2024-02-21T13:19:58Z) - Designing Interpretable ML System to Enhance Trustworthy AI in
Healthcare: A Systematic Review of the Last Decade to A Proposed Robust
Framework [0.49157446832511503]
本稿では、医療における解釈可能なML(IML)と説明可能なAI(XAI)のプロセスと課題についてレビューする。
本研究は,医療における堅牢な解釈可能性の重要性を実験的に確立することを目的とする。
論文 参考訳(メタデータ) (2023-11-18T12:29:18Z) - Representation Engineering: A Top-Down Approach to AI Transparency [132.0398250233924]
表現工学の新たな領域(RepE)を特定し,特徴付ける
RepEは、神経細胞や回路ではなく、人口レベルの表現を解析の中心に置く。
これらの手法が、広範囲の安全関連問題に対してどのようにトラクションを提供するかを紹介する。
論文 参考訳(メタデータ) (2023-10-02T17:59:07Z) - Interpretable Medical Imagery Diagnosis with Self-Attentive
Transformers: A Review of Explainable AI for Health Care [2.7195102129095003]
ビジョントランスフォーマー(ViT)は、自己注意モジュールの恩恵を受け、最先端のコンピュータビジョンモデルとして登場した。
ディープラーニングモデルは複雑で、しばしば"ブラックボックス"として扱われる。
本稿では、最近のViTの進歩と、ViTの意思決定プロセスを理解するための解釈的アプローチを要約する。
論文 参考訳(メタデータ) (2023-09-01T05:01:52Z) - FUTURE-AI: International consensus guideline for trustworthy and
deployable artificial intelligence in healthcare [73.51384299592974]
医療AIに関連する技術的、臨床的、倫理的、法的リスクに関する懸念が高まっている。
この研究は、Future-AIガイドラインを、医療における信頼できるAIツールの開発とデプロイを導くための最初の国際コンセンサスフレームワークとして説明している。
論文 参考訳(メタデータ) (2023-08-11T10:49:05Z) - An objective validation of polyp and instrument segmentation methods in
colonoscopy through Medico 2020 polyp segmentation and MedAI 2021
transparency challenges [58.402720481042365]
メディコオートマチックポリープセグメンテーション(Medico 2020)と「メディコ:医療画像の透明性(MedAI 2021)」コンペティション。
本報告では, それぞれのコントリビューションを包括的に分析し, ベストパフォーマンスメソッドの強さを強調し, クリニックへの臨床翻訳の可能性について考察する。
論文 参考訳(メタデータ) (2023-07-30T16:08:45Z) - A Brief Review of Explainable Artificial Intelligence in Healthcare [7.844015105790313]
XAIは、AIアプリケーションを構築するための技術と方法を指す。
モデル説明可能性と解釈可能性は、医療実践におけるAIモデルのデプロイを成功させる上で不可欠である。
論文 参考訳(メタデータ) (2023-04-04T05:41:57Z) - The Role of AI in Drug Discovery: Challenges, Opportunities, and
Strategies [97.5153823429076]
この分野でのAIのメリット、課題、欠点についてレビューする。
データ拡張、説明可能なAIの使用、従来の実験手法とAIの統合についても論じている。
論文 参考訳(メタデータ) (2022-12-08T23:23:39Z) - Explainable Deep Learning in Healthcare: A Methodological Survey from an
Attribution View [36.025217954247125]
本稿では,今後の研究者や臨床医の方法論として,深部・包括的に解釈可能性の方法を紹介した。
我々は、これらの方法が医療問題にどのように適応し、適用されたか、また、医師がこれらのデータ駆動技術をよりよく理解するのにどのように役立つかについて議論する。
論文 参考訳(メタデータ) (2021-12-05T17:12:53Z) - Unbox the Black-box for the Medical Explainable AI via Multi-modal and
Multi-centre Data Fusion: A Mini-Review, Two Showcases and Beyond [3.4031539425106683]
説明可能な人工知能(XAI)は、AIシステムのブラックボックスの選択方法のアンボックスを目的とした、機械学習の新たな研究トピックである。
機械学習アルゴリズムの多くは、意思決定の方法と理由を明らかにしない。
XAIは、ディープラーニングを利用したアプリケーション、特に医学や医療研究において、ますます重要になっている。
論文 参考訳(メタデータ) (2021-02-03T10:56:58Z) - Explaining Clinical Decision Support Systems in Medical Imaging using
Cycle-Consistent Activation Maximization [112.2628296775395]
ディープニューラルネットワークを用いた臨床意思決定支援は、着実に関心が高まりつつあるトピックとなっている。
臨床医は、その根底にある意思決定プロセスが不透明で理解しにくいため、この技術の採用をためらうことが多い。
そこで我々は,より小さなデータセットであっても,分類器決定の高品質な可視化を生成するCycleGANアクティベーションに基づく,新たな意思決定手法を提案する。
論文 参考訳(メタデータ) (2020-10-09T14:39:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。