論文の概要: Automatic Infectious Disease Classification Analysis with Concept
Discovery
- arxiv url: http://arxiv.org/abs/2209.02415v1
- Date: Sun, 28 Aug 2022 05:33:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-11 13:16:46.260999
- Title: Automatic Infectious Disease Classification Analysis with Concept
Discovery
- Title(参考訳): 概念発見による感染症の自動分類
- Authors: Elena Sizikova, Joshua Vendrow, Xu Cao, Rachel Grotheer, Jamie
Haddock, Lara Kassab, Alona Kryshchenko, Thomas Merkh, R. W. M. A. Madushani,
Kenny Moise, Annie Ulichney, Huy V. Vo, Chuntian Wang, Megan Coffee, Kathryn
Leonard, Deanna Needell
- Abstract要約: 我々は、概念の自動発見、すなわち人間の解釈可能な属性は、医学画像解析タスクにおける学習情報の深い理解を可能にすると論じている。
医用画像とコンピュータビジョンのコミュニティにおける既存の概念発見アプローチの概要について述べる。
我々は,教師なし,弱教師付き,教師付きシナリオにおいて統一的に機能する概念発見による解釈可能性の一般式であるNMFxを提案する。
- 参考スコア(独自算出の注目度): 9.606677000204831
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Automatic infectious disease classification from images can facilitate needed
medical diagnoses. Such an approach can identify diseases, like tuberculosis,
which remain under-diagnosed due to resource constraints and also novel and
emerging diseases, like monkeypox, which clinicians have little experience or
acumen in diagnosing. Avoiding missed or delayed diagnoses would prevent
further transmission and improve clinical outcomes. In order to understand and
trust neural network predictions, analysis of learned representations is
necessary. In this work, we argue that automatic discovery of concepts, i.e.,
human interpretable attributes, allows for a deep understanding of learned
information in medical image analysis tasks, generalizing beyond the training
labels or protocols. We provide an overview of existing concept discovery
approaches in medical image and computer vision communities, and evaluate
representative methods on tuberculosis (TB) prediction and monkeypox prediction
tasks. Finally, we propose NMFx, a general NMF formulation of interpretability
by concept discovery that works in a unified way in unsupervised, weakly
supervised, and supervised scenarios.
- Abstract(参考訳): 画像からの感染症の自動分類は、必要な診断を容易にする。
このようなアプローチは、リソースの制約により診断下にある結核のような疾患や、臨床医が診断の経験がほとんどないサルポックスのような新規で新興の疾患を識別することができる。
診断の欠如や遅延を避けることは、さらなる感染を防ぎ、臨床結果を改善する。
ニューラルネットワークの予測を理解し,信頼するには,学習した表現の分析が必要である。
本研究では,概念の自動発見,すなわち人間の解釈可能な属性は,トレーニングラベルやプロトコルを超えて一般化し,医用画像解析タスクにおける学習情報の深い理解を可能にすると主張している。
医療画像とコンピュータビジョンのコミュニティにおける既存の概念発見アプローチの概要と結核(tb)予測とサルポックス予測タスクの代表的な手法について評価する。
最後に,NMFxを提案する。NMFxは,教師なし,弱教師付き,教師付きシナリオにおいて統一的に機能する概念発見による解釈可能性の一般式である。
関連論文リスト
- MICA: Towards Explainable Skin Lesion Diagnosis via Multi-Level
Image-Concept Alignment [4.861768967055006]
本稿では, 医療画像と臨床関連概念を多層的に意味的に整合させるマルチモーダル説明型疾患診断フレームワークを提案する。
提案手法は, モデル解釈可能性を維持しながら, 概念検出と疾患診断に高い性能とラベル効率を実現する。
論文 参考訳(メタデータ) (2024-01-16T17:45:01Z) - Robust and Interpretable Medical Image Classifiers via Concept
Bottleneck Models [49.95603725998561]
本稿では,自然言語の概念を用いた堅牢で解釈可能な医用画像分類器を構築するための新しいパラダイムを提案する。
具体的には、まず臨床概念をGPT-4から検索し、次に視覚言語モデルを用いて潜在画像の特徴を明示的な概念に変換する。
論文 参考訳(メタデータ) (2023-10-04T21:57:09Z) - Adversarial Attack and Defense for Medical Image Analysis: Methods and
Applications [57.206139366029646]
医用画像解析における対人攻撃と防御の進歩に関する総合的な調査を報告する。
医療画像解析のための異なる種類の敵攻撃のための統一的理論的枠組みと防衛方法を提供する。
公正な比較のために、逆向きに堅牢な診断モデルのための新しいベンチマークを構築した。
論文 参考訳(メタデータ) (2023-03-24T16:38:58Z) - Informing clinical assessment by contextualizing post-hoc explanations
of risk prediction models in type-2 diabetes [50.8044927215346]
本研究は, 合併症リスク予測のシナリオを考察し, 患者の臨床状態に関する文脈に焦点を当てる。
我々は、リスク予測モデル推論に関する文脈を提示し、その受容性を評価するために、最先端のLLMをいくつか採用する。
本論文は,実世界における臨床症例における文脈説明の有効性と有用性を明らかにする最初のエンドツーエンド分析の1つである。
論文 参考訳(メタデータ) (2023-02-11T18:07:11Z) - Interpretable Vertebral Fracture Diagnosis [69.68641439851777]
ブラックボックスニューラルネットワークモデルは、骨折診断のための臨床的に関連する特徴を学習する。
この研究は、CT画像における脊椎骨折の診断にネットワークが使用する概念を特定する。
論文 参考訳(メタデータ) (2022-03-30T13:07:41Z) - ExAID: A Multimodal Explanation Framework for Computer-Aided Diagnosis
of Skin Lesions [4.886872847478552]
ExAID(Explainable AI for Dermatology)は、バイオメディカル画像解析のための新しいフレームワークである。
マルチモーダルな概念に基づく説明を提供する。
他の生体イメージング分野でも同様の応用の基盤となるだろう。
論文 参考訳(メタデータ) (2022-01-04T17:11:28Z) - Transparency of Deep Neural Networks for Medical Image Analysis: A
Review of Interpretability Methods [3.3918638314432936]
ディープニューラルネットワークは、多くのタスクにおいて、臨床医と同じまたはより良いパフォーマンスを示している。
現在のディープ・ニューラル・ソリューションは、意思決定プロセスに関する具体的な知識の欠如からブラックボックスと呼ばれる。
通常の臨床ワークフローに組み込む前に、ディープニューラルネットワークの解釈可能性を保証する必要がある。
論文 参考訳(メタデータ) (2021-11-01T01:42:26Z) - Clinical Outcome Prediction from Admission Notes using Self-Supervised
Knowledge Integration [55.88616573143478]
臨床テキストからのアウトカム予測は、医師が潜在的なリスクを見落としないようにする。
退院時の診断,手術手順,院内死亡率,長期予測は4つの一般的な結果予測対象である。
複数の公開資料から得られた患者結果に関する知識を統合するために,臨床結果の事前学習を提案する。
論文 参考訳(メタデータ) (2021-02-08T10:26:44Z) - Inheritance-guided Hierarchical Assignment for Clinical Automatic
Diagnosis [50.15205065710629]
臨床診断は、臨床ノートに基づいて患者に診断符号を割り当てることを目的としており、臨床意思決定において重要な役割を担っている。
本稿では,臨床自動診断のための継承誘導階層と共起グラフの伝播を組み合わせた新しい枠組みを提案する。
論文 参考訳(メタデータ) (2021-01-27T13:16:51Z) - Explaining Predictions of Deep Neural Classifier via Activation Analysis [0.11470070927586014]
本稿では,畳み込みニューラルネットワーク(CNN)に基づく深層学習システムを実行する人間専門家に対して,意思決定プロセスの説明と支援を行う新しいアプローチを提案する。
以上の結果から,本手法は既存のアトラスから最も類似した予測を識別できる別個の予測戦略を検出することができることが示された。
論文 参考訳(メタデータ) (2020-12-03T20:36:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。