論文の概要: Automatic Infectious Disease Classification Analysis with Concept
Discovery
- arxiv url: http://arxiv.org/abs/2209.02415v1
- Date: Sun, 28 Aug 2022 05:33:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-11 13:16:46.260999
- Title: Automatic Infectious Disease Classification Analysis with Concept
Discovery
- Title(参考訳): 概念発見による感染症の自動分類
- Authors: Elena Sizikova, Joshua Vendrow, Xu Cao, Rachel Grotheer, Jamie
Haddock, Lara Kassab, Alona Kryshchenko, Thomas Merkh, R. W. M. A. Madushani,
Kenny Moise, Annie Ulichney, Huy V. Vo, Chuntian Wang, Megan Coffee, Kathryn
Leonard, Deanna Needell
- Abstract要約: 我々は、概念の自動発見、すなわち人間の解釈可能な属性は、医学画像解析タスクにおける学習情報の深い理解を可能にすると論じている。
医用画像とコンピュータビジョンのコミュニティにおける既存の概念発見アプローチの概要について述べる。
我々は,教師なし,弱教師付き,教師付きシナリオにおいて統一的に機能する概念発見による解釈可能性の一般式であるNMFxを提案する。
- 参考スコア(独自算出の注目度): 9.606677000204831
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Automatic infectious disease classification from images can facilitate needed
medical diagnoses. Such an approach can identify diseases, like tuberculosis,
which remain under-diagnosed due to resource constraints and also novel and
emerging diseases, like monkeypox, which clinicians have little experience or
acumen in diagnosing. Avoiding missed or delayed diagnoses would prevent
further transmission and improve clinical outcomes. In order to understand and
trust neural network predictions, analysis of learned representations is
necessary. In this work, we argue that automatic discovery of concepts, i.e.,
human interpretable attributes, allows for a deep understanding of learned
information in medical image analysis tasks, generalizing beyond the training
labels or protocols. We provide an overview of existing concept discovery
approaches in medical image and computer vision communities, and evaluate
representative methods on tuberculosis (TB) prediction and monkeypox prediction
tasks. Finally, we propose NMFx, a general NMF formulation of interpretability
by concept discovery that works in a unified way in unsupervised, weakly
supervised, and supervised scenarios.
- Abstract(参考訳): 画像からの感染症の自動分類は、必要な診断を容易にする。
このようなアプローチは、リソースの制約により診断下にある結核のような疾患や、臨床医が診断の経験がほとんどないサルポックスのような新規で新興の疾患を識別することができる。
診断の欠如や遅延を避けることは、さらなる感染を防ぎ、臨床結果を改善する。
ニューラルネットワークの予測を理解し,信頼するには,学習した表現の分析が必要である。
本研究では,概念の自動発見,すなわち人間の解釈可能な属性は,トレーニングラベルやプロトコルを超えて一般化し,医用画像解析タスクにおける学習情報の深い理解を可能にすると主張している。
医療画像とコンピュータビジョンのコミュニティにおける既存の概念発見アプローチの概要と結核(tb)予測とサルポックス予測タスクの代表的な手法について評価する。
最後に,NMFxを提案する。NMFxは,教師なし,弱教師付き,教師付きシナリオにおいて統一的に機能する概念発見による解釈可能性の一般式である。
関連論文リスト
- A Two-Step Concept-Based Approach for Enhanced Interpretability and Trust in Skin Lesion Diagnosis [6.6635650150737815]
概念ボトルネックモデル (Concept Bottleneck Models, CBM) は、人間の理解できない概念のセットに対する最終疾患予測を制約することにより、固有の解釈可能性を提供する。
これらの課題に対処する新しい2段階の方法論を導入する。
CBMの2段階をシミュレートすることにより,臨床概念の自動予測にVLM(Pretrained Vision Language Model),疾患診断にLLM(Large Language Model)を用いる。
論文 参考訳(メタデータ) (2024-11-08T14:52:42Z) - Decoding Decision Reasoning: A Counterfactual-Powered Model for Knowledge Discovery [6.1521675665532545]
医用画像では、AIモデルの予測の背後にある根拠を明らかにすることが、信頼性を評価する上で重要である。
本稿では,意思決定推論と特徴識別機能を備えた説明可能なモデルを提案する。
提案手法を実装することにより,データ駆動モデルにより活用されるクラス固有の特徴を効果的に識別および可視化することができる。
論文 参考訳(メタデータ) (2024-05-23T19:00:38Z) - MICA: Towards Explainable Skin Lesion Diagnosis via Multi-Level
Image-Concept Alignment [4.861768967055006]
本稿では, 医療画像と臨床関連概念を多層的に意味的に整合させるマルチモーダル説明型疾患診断フレームワークを提案する。
提案手法は, モデル解釈可能性を維持しながら, 概念検出と疾患診断に高い性能とラベル効率を実現する。
論文 参考訳(メタデータ) (2024-01-16T17:45:01Z) - Robust and Interpretable Medical Image Classifiers via Concept
Bottleneck Models [49.95603725998561]
本稿では,自然言語の概念を用いた堅牢で解釈可能な医用画像分類器を構築するための新しいパラダイムを提案する。
具体的には、まず臨床概念をGPT-4から検索し、次に視覚言語モデルを用いて潜在画像の特徴を明示的な概念に変換する。
論文 参考訳(メタデータ) (2023-10-04T21:57:09Z) - Informing clinical assessment by contextualizing post-hoc explanations
of risk prediction models in type-2 diabetes [50.8044927215346]
本研究は, 合併症リスク予測のシナリオを考察し, 患者の臨床状態に関する文脈に焦点を当てる。
我々は、リスク予測モデル推論に関する文脈を提示し、その受容性を評価するために、最先端のLLMをいくつか採用する。
本論文は,実世界における臨床症例における文脈説明の有効性と有用性を明らかにする最初のエンドツーエンド分析の1つである。
論文 参考訳(メタデータ) (2023-02-11T18:07:11Z) - NeuroExplainer: Fine-Grained Attention Decoding to Uncover Cortical
Development Patterns of Preterm Infants [73.85768093666582]
我々はNeuroExplainerと呼ばれる説明可能な幾何学的深層ネットワークを提案する。
NeuroExplainerは、早産に伴う幼児の皮質発達パターンの解明に使用される。
論文 参考訳(メタデータ) (2023-01-01T12:48:12Z) - Interpretable Vertebral Fracture Diagnosis [69.68641439851777]
ブラックボックスニューラルネットワークモデルは、骨折診断のための臨床的に関連する特徴を学習する。
この研究は、CT画像における脊椎骨折の診断にネットワークが使用する概念を特定する。
論文 参考訳(メタデータ) (2022-03-30T13:07:41Z) - ExAID: A Multimodal Explanation Framework for Computer-Aided Diagnosis
of Skin Lesions [4.886872847478552]
ExAID(Explainable AI for Dermatology)は、バイオメディカル画像解析のための新しいフレームワークである。
マルチモーダルな概念に基づく説明を提供する。
他の生体イメージング分野でも同様の応用の基盤となるだろう。
論文 参考訳(メタデータ) (2022-01-04T17:11:28Z) - Transparency of Deep Neural Networks for Medical Image Analysis: A
Review of Interpretability Methods [3.3918638314432936]
ディープニューラルネットワークは、多くのタスクにおいて、臨床医と同じまたはより良いパフォーマンスを示している。
現在のディープ・ニューラル・ソリューションは、意思決定プロセスに関する具体的な知識の欠如からブラックボックスと呼ばれる。
通常の臨床ワークフローに組み込む前に、ディープニューラルネットワークの解釈可能性を保証する必要がある。
論文 参考訳(メタデータ) (2021-11-01T01:42:26Z) - Clinical Outcome Prediction from Admission Notes using Self-Supervised
Knowledge Integration [55.88616573143478]
臨床テキストからのアウトカム予測は、医師が潜在的なリスクを見落としないようにする。
退院時の診断,手術手順,院内死亡率,長期予測は4つの一般的な結果予測対象である。
複数の公開資料から得られた患者結果に関する知識を統合するために,臨床結果の事前学習を提案する。
論文 参考訳(メタデータ) (2021-02-08T10:26:44Z) - Inheritance-guided Hierarchical Assignment for Clinical Automatic
Diagnosis [50.15205065710629]
臨床診断は、臨床ノートに基づいて患者に診断符号を割り当てることを目的としており、臨床意思決定において重要な役割を担っている。
本稿では,臨床自動診断のための継承誘導階層と共起グラフの伝播を組み合わせた新しい枠組みを提案する。
論文 参考訳(メタデータ) (2021-01-27T13:16:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。