論文の概要: Explainable AI For COVID-19 CT Classifiers: An Initial Comparison Study
- arxiv url: http://arxiv.org/abs/2104.14506v1
- Date: Sun, 25 Apr 2021 23:39:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-30 13:05:22.774259
- Title: Explainable AI For COVID-19 CT Classifiers: An Initial Comparison Study
- Title(参考訳): 新型コロナウイルスのCT分類のための説明可能なAI:最初の比較研究
- Authors: Qinghao Ye and Jun Xia and Guang Yang
- Abstract要約: 説明可能なAI(XAI)は、AIとディープラーニングのためのブラックボックスのアンロックの鍵です。
胸部ctは、covid-19に関連する肺疾患の診断および治療管理に有用なツールである。
本研究の目的は、比較調査による新型コロナウイルス分類モデルのためのXAI戦略の提案と開発である。
- 参考スコア(独自算出の注目度): 3.4031539425106683
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Artificial Intelligence (AI) has made leapfrogs in development across all the
industrial sectors especially when deep learning has been introduced. Deep
learning helps to learn the behaviour of an entity through methods of
recognising and interpreting patterns. Despite its limitless potential, the
mystery is how deep learning algorithms make a decision in the first place.
Explainable AI (XAI) is the key to unlocking AI and the black-box for deep
learning. XAI is an AI model that is programmed to explain its goals, logic,
and decision making so that the end users can understand. The end users can be
domain experts, regulatory agencies, managers and executive board members, data
scientists, users that use AI, with or without awareness, or someone who is
affected by the decisions of an AI model. Chest CT has emerged as a valuable
tool for the clinical diagnostic and treatment management of the lung diseases
associated with COVID-19. AI can support rapid evaluation of CT scans to
differentiate COVID-19 findings from other lung diseases. However, how these AI
tools or deep learning algorithms reach such a decision and which are the most
influential features derived from these neural networks with typically deep
layers are not clear. The aim of this study is to propose and develop XAI
strategies for COVID-19 classification models with an investigation of
comparison. The results demonstrate promising quantification and qualitative
visualisations that can further enhance the clinician's understanding and
decision making with more granular information from the results given by the
learned XAI models.
- Abstract(参考訳): 人工知能(AI)は、特にディープラーニングが導入されたときに、すべての産業セクターで飛躍的な発展を遂げた。
ディープラーニングは、パターンを認識し解釈する方法を通じて、エンティティの振る舞いを学ぶのに役立つ。
無限の可能性にもかかわらず、深層学習アルゴリズムがそもそもどのように決定を下すのかは謎だ。
説明可能なAI(XAI)は、ディープラーニングのためのAIとブラックボックスをアンロックする鍵である。
XAIは、エンドユーザが理解できるように、目標、ロジック、意思決定を説明するためにプログラムされたAIモデルである。
エンドユーザは、ドメインエキスパート、規制機関、マネジャー、執行委員会メンバー、データサイエンティスト、AIを使用するユーザ、認識の有無に関わらず、あるいはAIモデルの決定に影響を受けている人である。
胸部CTは、COVID-19に関連する肺疾患の臨床的診断と治療のための貴重なツールとして登場した。
aiは、他の肺疾患とcovid-19所見を区別するために、ctスキャンの迅速な評価をサポートすることができる。
しかし、これらのAIツールやディープラーニングアルゴリズムがこのような決定にどのように到達し、一般的に深い層を持つニューラルネットワークから派生した最も影響力のある特徴は明確ではない。
本研究の目的は、比較調査による新型コロナウイルス分類モデルのためのXAI戦略の提案と開発である。
その結果,XAIモデルから得られた結果からより詳細な情報を用いて,臨床医の理解と意思決定をさらに促進できる有望な定量化と質的可視化が示された。
関連論文リスト
- An Explainable AI Framework for Artificial Intelligence of Medical
Things [2.7774194651211217]
我々はカスタムXAIフレームワークを活用し、LIME(Local Interpretable Model-Agnostic Explanations)、SHAP(SHapley Additive ExPlanations)、Grad-Cam(Grad-weighted Class Activation Mapping)といったテクニックを取り入れた。
提案手法は, 戦略的医療手法の有効性を高め, 信頼度を高め, 医療応用の理解を促進することを目的としている。
我々はXAIフレームワークを脳腫瘍検出に応用し,正確かつ透明な診断方法を示した。
論文 参考訳(メタデータ) (2024-03-07T01:08:41Z) - An Interpretable Deep Learning Approach for Skin Cancer Categorization [0.0]
我々は、皮膚がん検出の問題に対処するために、現代のディープラーニング手法と説明可能な人工知能(XAI)アプローチを使用する。
皮膚病変の分類には,XceptionNet,EfficientNetV2S,InceptionResNetV2,EfficientNetV2Mの4つの最先端事前訓練モデルを用いる。
我々の研究は、ディープラーニングと説明可能な人工知能(XAI)が皮膚がんの診断をどのように改善するかを示している。
論文 参考訳(メタデータ) (2023-12-17T12:11:38Z) - From DDMs to DNNs: Using process data and models of decision-making to
improve human-AI interactions [1.1510009152620668]
人工知能(AI)の研究は、意思決定が時間とともにどのように現れるかについての洞察に強い焦点をあてることから恩恵を受けるだろう、と私たちは主張する。
まず,ノイズの蓄積による決定を前提とした,高度に確立された計算フレームワークを提案する。
次に、マルチエージェントAIにおける現在のアプローチが、プロセスデータや意思決定のモデルをどの程度取り入れているかについて議論する。
論文 参考訳(メタデータ) (2023-08-29T11:27:22Z) - Deep Reinforcement Learning Framework for Thoracic Diseases
Classification via Prior Knowledge Guidance [49.87607548975686]
関連疾患に対するラベル付きデータの不足は、正確な診断にとって大きな課題となる。
本稿では,診断エージェントの学習を指導するための事前知識を導入する,新しい深層強化学習フレームワークを提案する。
提案手法の性能はNIHX-ray 14とCheXpertデータセットを用いて実証した。
論文 参考訳(メタデータ) (2023-06-02T01:46:31Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Towards Human Cognition Level-based Experiment Design for Counterfactual
Explanations (XAI) [68.8204255655161]
XAI研究の重点は、より理解を深めるために、より実践的な説明アプローチに変わったようだ。
認知科学研究がXAIの進歩に大きく影響を与える可能性のある領域は、ユーザの知識とフィードバックを評価することである。
本研究では,異なる認知レベルの理解に基づく説明の生成と評価を実験する枠組みを提案する。
論文 参考訳(メタデータ) (2022-10-31T19:20:22Z) - What Do End-Users Really Want? Investigation of Human-Centered XAI for
Mobile Health Apps [69.53730499849023]
説明可能なAI(XAI)を評価するために,ユーザ中心のペルソナ概念を提案する。
分析の結果,ユーザの人口統計や性格,説明のタイプ,影響説明の嗜好が示された。
私たちの洞察は、対話的で人間中心のXAIを実践的な応用に近づけます。
論文 参考訳(メタデータ) (2022-10-07T12:51:27Z) - When Accuracy Meets Privacy: Two-Stage Federated Transfer Learning
Framework in Classification of Medical Images on Limited Data: A COVID-19
Case Study [77.34726150561087]
新型コロナウイルスのパンデミックが急速に広がり、世界の医療資源が不足している。
CNNは医療画像の解析に広く利用され、検証されている。
論文 参考訳(メタデータ) (2022-03-24T02:09:41Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z) - Unbox the Black-box for the Medical Explainable AI via Multi-modal and
Multi-centre Data Fusion: A Mini-Review, Two Showcases and Beyond [3.4031539425106683]
説明可能な人工知能(XAI)は、AIシステムのブラックボックスの選択方法のアンボックスを目的とした、機械学習の新たな研究トピックである。
機械学習アルゴリズムの多くは、意思決定の方法と理由を明らかにしない。
XAIは、ディープラーニングを利用したアプリケーション、特に医学や医療研究において、ますます重要になっている。
論文 参考訳(メタデータ) (2021-02-03T10:56:58Z) - Opportunities and Challenges in Explainable Artificial Intelligence
(XAI): A Survey [2.7086321720578623]
深層ニューラルネットワークのブラックボックスの性質は、ミッションクリティカルなアプリケーションでの利用に挑戦する。
XAIは、AI決定に関する高品質な解釈可能、直感的、人間に理解可能な説明を生成するためのツール、テクニック、アルゴリズムのセットを推進している。
論文 参考訳(メタデータ) (2020-06-16T02:58:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。