論文の概要: Explainable AI For COVID-19 CT Classifiers: An Initial Comparison Study
- arxiv url: http://arxiv.org/abs/2104.14506v1
- Date: Sun, 25 Apr 2021 23:39:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-30 13:05:22.774259
- Title: Explainable AI For COVID-19 CT Classifiers: An Initial Comparison Study
- Title(参考訳): 新型コロナウイルスのCT分類のための説明可能なAI:最初の比較研究
- Authors: Qinghao Ye and Jun Xia and Guang Yang
- Abstract要約: 説明可能なAI(XAI)は、AIとディープラーニングのためのブラックボックスのアンロックの鍵です。
胸部ctは、covid-19に関連する肺疾患の診断および治療管理に有用なツールである。
本研究の目的は、比較調査による新型コロナウイルス分類モデルのためのXAI戦略の提案と開発である。
- 参考スコア(独自算出の注目度): 3.4031539425106683
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Artificial Intelligence (AI) has made leapfrogs in development across all the
industrial sectors especially when deep learning has been introduced. Deep
learning helps to learn the behaviour of an entity through methods of
recognising and interpreting patterns. Despite its limitless potential, the
mystery is how deep learning algorithms make a decision in the first place.
Explainable AI (XAI) is the key to unlocking AI and the black-box for deep
learning. XAI is an AI model that is programmed to explain its goals, logic,
and decision making so that the end users can understand. The end users can be
domain experts, regulatory agencies, managers and executive board members, data
scientists, users that use AI, with or without awareness, or someone who is
affected by the decisions of an AI model. Chest CT has emerged as a valuable
tool for the clinical diagnostic and treatment management of the lung diseases
associated with COVID-19. AI can support rapid evaluation of CT scans to
differentiate COVID-19 findings from other lung diseases. However, how these AI
tools or deep learning algorithms reach such a decision and which are the most
influential features derived from these neural networks with typically deep
layers are not clear. The aim of this study is to propose and develop XAI
strategies for COVID-19 classification models with an investigation of
comparison. The results demonstrate promising quantification and qualitative
visualisations that can further enhance the clinician's understanding and
decision making with more granular information from the results given by the
learned XAI models.
- Abstract(参考訳): 人工知能(AI)は、特にディープラーニングが導入されたときに、すべての産業セクターで飛躍的な発展を遂げた。
ディープラーニングは、パターンを認識し解釈する方法を通じて、エンティティの振る舞いを学ぶのに役立つ。
無限の可能性にもかかわらず、深層学習アルゴリズムがそもそもどのように決定を下すのかは謎だ。
説明可能なAI(XAI)は、ディープラーニングのためのAIとブラックボックスをアンロックする鍵である。
XAIは、エンドユーザが理解できるように、目標、ロジック、意思決定を説明するためにプログラムされたAIモデルである。
エンドユーザは、ドメインエキスパート、規制機関、マネジャー、執行委員会メンバー、データサイエンティスト、AIを使用するユーザ、認識の有無に関わらず、あるいはAIモデルの決定に影響を受けている人である。
胸部CTは、COVID-19に関連する肺疾患の臨床的診断と治療のための貴重なツールとして登場した。
aiは、他の肺疾患とcovid-19所見を区別するために、ctスキャンの迅速な評価をサポートすることができる。
しかし、これらのAIツールやディープラーニングアルゴリズムがこのような決定にどのように到達し、一般的に深い層を持つニューラルネットワークから派生した最も影響力のある特徴は明確ではない。
本研究の目的は、比較調査による新型コロナウイルス分類モデルのためのXAI戦略の提案と開発である。
その結果,XAIモデルから得られた結果からより詳細な情報を用いて,臨床医の理解と意思決定をさらに促進できる有望な定量化と質的可視化が示された。
関連論文リスト
- Study on the Helpfulness of Explainable Artificial Intelligence [0.0]
法律、ビジネス、倫理的要件は、効果的なXAIの使用を動機付けている。
本稿では,ユーザがプロキシタスクをうまく実行する能力を通じて,XAI手法を評価することを提案する。
言い換えれば、人間の意思決定におけるXAIの有用性について論じる。
論文 参考訳(メタデータ) (2024-10-14T14:03:52Z) - Knowledge-Guided Prompt Learning for Lifespan Brain MR Image Segmentation [53.70131202548981]
本稿では,脳MRIにKGPL(Knowledge-Guided Prompt Learning)を用いた2段階のセグメンテーションフレームワークを提案する。
具体的には,大規模データセットと準最適ラベルを用いたトレーニング前セグメンテーションモデルについて述べる。
知識的プロンプトの導入は、解剖学的多様性と生物学的プロセスの間の意味的関係を捉えている。
論文 参考訳(メタデータ) (2024-07-31T04:32:43Z) - A Survey of Artificial Intelligence in Gait-Based Neurodegenerative Disease Diagnosis [51.07114445705692]
神経変性疾患(神経変性疾患、ND)は、伝統的に医学的診断とモニタリングのために広範囲の医療資源と人的努力を必要とする。
重要な疾患関連運動症状として、ヒトの歩行を利用して異なるNDを特徴づけることができる。
人工知能(AI)モデルの現在の進歩は、NDの識別と分類のための自動歩行分析を可能にする。
論文 参考訳(メタデータ) (2024-05-21T06:44:40Z) - Enhancing Breast Cancer Diagnosis in Mammography: Evaluation and Integration of Convolutional Neural Networks and Explainable AI [0.0]
本研究では,畳み込みニューラルネットワーク(CNN)と説明可能な人工知能(XAI)を組み合わせて乳がんの診断を高度化するための統合フレームワークを提案する。
この方法論は、データセットの制限に対処するために、精巧なデータ前処理パイプラインと高度なデータ拡張技術を含んでいる。
本研究の焦点は,モデル予測の解釈におけるXAIの有効性を評価することである。
論文 参考訳(メタデータ) (2024-04-05T05:00:21Z) - An Explainable AI Framework for Artificial Intelligence of Medical
Things [2.7774194651211217]
我々はカスタムXAIフレームワークを活用し、LIME(Local Interpretable Model-Agnostic Explanations)、SHAP(SHapley Additive ExPlanations)、Grad-Cam(Grad-weighted Class Activation Mapping)といったテクニックを取り入れた。
提案手法は, 戦略的医療手法の有効性を高め, 信頼度を高め, 医療応用の理解を促進することを目的としている。
我々はXAIフレームワークを脳腫瘍検出に応用し,正確かつ透明な診断方法を示した。
論文 参考訳(メタデータ) (2024-03-07T01:08:41Z) - An Interpretable Deep Learning Approach for Skin Cancer Categorization [0.0]
我々は、皮膚がん検出の問題に対処するために、現代のディープラーニング手法と説明可能な人工知能(XAI)アプローチを使用する。
皮膚病変の分類には,XceptionNet,EfficientNetV2S,InceptionResNetV2,EfficientNetV2Mの4つの最先端事前訓練モデルを用いる。
我々の研究は、ディープラーニングと説明可能な人工知能(XAI)が皮膚がんの診断をどのように改善するかを示している。
論文 参考訳(メタデータ) (2023-12-17T12:11:38Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - When Accuracy Meets Privacy: Two-Stage Federated Transfer Learning
Framework in Classification of Medical Images on Limited Data: A COVID-19
Case Study [77.34726150561087]
新型コロナウイルスのパンデミックが急速に広がり、世界の医療資源が不足している。
CNNは医療画像の解析に広く利用され、検証されている。
論文 参考訳(メタデータ) (2022-03-24T02:09:41Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z) - Unbox the Black-box for the Medical Explainable AI via Multi-modal and
Multi-centre Data Fusion: A Mini-Review, Two Showcases and Beyond [3.4031539425106683]
説明可能な人工知能(XAI)は、AIシステムのブラックボックスの選択方法のアンボックスを目的とした、機械学習の新たな研究トピックである。
機械学習アルゴリズムの多くは、意思決定の方法と理由を明らかにしない。
XAIは、ディープラーニングを利用したアプリケーション、特に医学や医療研究において、ますます重要になっている。
論文 参考訳(メタデータ) (2021-02-03T10:56:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。