論文の概要: Constructing and Evaluating an Explainable Model for COVID-19 Diagnosis
from Chest X-rays
- arxiv url: http://arxiv.org/abs/2012.10787v2
- Date: Fri, 12 Feb 2021 12:30:32 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-01 12:49:24.054025
- Title: Constructing and Evaluating an Explainable Model for COVID-19 Diagnosis
from Chest X-rays
- Title(参考訳): 胸部x線診断のための説明可能なモデルの構築と評価
- Authors: Rishab Khincha, Soundarya Krishnan, Tirtharaj Dash, Lovekesh Vig and
Ashwin Srinivasan
- Abstract要約: 我々は,X線画像の取得がCTスキャンなどの高品質画像の取得よりも容易で安価である状況において,臨床医の診断を支援するモデルの構築に重点を置いている。
深層ニューラルネットワークは、画像データから直接疾患検出のための高い予測モデルを構築することができることが繰り返し示されている。
- 参考スコア(独自算出の注目度): 15.664919899567288
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, our focus is on constructing models to assist a clinician in
the diagnosis of COVID-19 patients in situations where it is easier and cheaper
to obtain X-ray data than to obtain high-quality images like those from CT
scans. Deep neural networks have repeatedly been shown to be capable of
constructing highly predictive models for disease detection directly from image
data. However, their use in assisting clinicians has repeatedly hit a stumbling
block due to their black-box nature. Some of this difficulty can be alleviated
if predictions were accompanied by explanations expressed in clinically
relevant terms. In this paper, deep neural networks are used to extract
domain-specific features(morphological features like ground-glass opacity and
disease indications like pneumonia) directly from the image data. Predictions
about these features are then used to construct a symbolic model (a decision
tree) for the diagnosis of COVID-19 from chest X-rays, accompanied with two
kinds of explanations: visual (saliency maps, derived from the neural stage),
and textual (logical descriptions, derived from the symbolic stage). A
radiologist rates the usefulness of the visual and textual explanations. Our
results demonstrate that neural models can be employed usefully in identifying
domain-specific features from low-level image data; that textual explanations
in terms of clinically relevant features may be useful; and that visual
explanations will need to be clinically meaningful to be useful.
- Abstract(参考訳): 本稿では,ctスキャンから得られたような高品質な画像を得るよりも,x線データを得ることが容易で安価である状況において,臨床医の診断を支援するモデルの構築に焦点をあてる。
深層ニューラルネットワークは、画像データから直接疾患検出のための高い予測モデルを構築することができることが繰り返し示されている。
しかし, そのブラックボックス性から, 臨床医の補助としての利用は, 何度も転落の一途をたどっている。
予測に臨床用語で表現された説明が伴っていれば、この難しさを和らげることができる。
本稿では,深層ニューラルネットワークを用いて,画像データからドメイン特有の特徴(グラウンドグラス不透明度や肺炎などの疾患表示などの形態学的特徴)を直接抽出する。
これらの特徴に関する予測は、胸部X線からCOVID-19を診断するためのシンボルモデル(決定木)を構築するために使用され、視覚(神経段階から派生した透明マップ)とテキスト(記号段階から派生した論理的記述)の2種類の説明を伴う。
放射線科医は、視覚的およびテキスト的説明の有用性を評価します。
以上の結果から,低レベル画像データからのドメイン固有特徴の同定にニューラルネットワークが有用であること,臨床的に関連のある特徴のテキスト的説明が有用であること,視覚的な説明が有用になるためには臨床的に有意義であること,などが分かる。
関連論文リスト
- Interpretable Vertebral Fracture Diagnosis [69.68641439851777]
ブラックボックスニューラルネットワークモデルは、骨折診断のための臨床的に関連する特徴を学習する。
この研究は、CT画像における脊椎骨折の診断にネットワークが使用する概念を特定する。
論文 参考訳(メタデータ) (2022-03-30T13:07:41Z) - Feature visualization for convolutional neural network models trained on
neuroimaging data [0.0]
畳み込みニューラルネットワーク(CNN)の機能可視化による最初の結果を示す。
我々は、MRIデータに基づく性分類や人為的病変分類など、さまざまなタスクのためにCNNを訓練した。
得られた画像は、その形状を含む人工的な病変の学習概念を明らかにするが、性分類タスクにおける抽象的な特徴を解釈することは困難である。
論文 参考訳(メタデータ) (2022-03-24T15:24:38Z) - SQUID: Deep Feature In-Painting for Unsupervised Anomaly Detection [76.01333073259677]
無線画像からの異常検出のための空間認識型メモリキューを提案する(略してSQUID)。
SQUIDは, 微細な解剖学的構造を逐次パターンに分類でき, 推測では画像中の異常(見えない/修正されたパターン)を識別できる。
論文 参考訳(メタデータ) (2021-11-26T13:47:34Z) - Generative Residual Attention Network for Disease Detection [51.60842580044539]
本稿では, 条件付き生成逆学習を用いたX線疾患発生のための新しいアプローチを提案する。
我々は,患者の身元を保存しながら,対象領域に対応する放射線画像を生成する。
次に、ターゲット領域で生成されたX線画像を用いてトレーニングを増強し、検出性能を向上させる。
論文 参考訳(メタデータ) (2021-10-25T14:15:57Z) - BI-RADS-Net: An Explainable Multitask Learning Approach for Cancer
Diagnosis in Breast Ultrasound Images [69.41441138140895]
本稿では,乳房超音波画像における癌検出のための新しい深層学習手法であるBI-RADS-Netを紹介する。
提案手法は, 臨床診断に関連する特徴表現を学習することにより, 乳腺腫瘍の説明と分類を行うタスクを取り入れたものである。
臨床医が医療現場で診断・報告するために使用する形態学的特徴の観点から予測(良性または悪性)の説明が提供される。
論文 参考訳(メタデータ) (2021-10-05T19:14:46Z) - Interpretable Mammographic Image Classification using Cased-Based
Reasoning and Deep Learning [20.665935997959025]
マンモグラフィーのケースベース推論を用いた新しい解釈型ニューラルネットワークアルゴリズムを提案する。
我々のネットワークは悪性度予測と、その予測を既知の医学的特徴を用いて説明する。
論文 参考訳(メタデータ) (2021-07-12T17:42:09Z) - Contrastive Attention for Automatic Chest X-ray Report Generation [124.60087367316531]
ほとんどの場合、正常領域が胸部X線像全体を支配し、これらの正常領域の対応する記述が最終報告を支配している。
本稿では,現在の入力画像と通常の画像を比較してコントラスト情報を抽出するContrastive Attention(CA)モデルを提案する。
2つの公開データセットで最先端の結果を得る。
論文 参考訳(メタデータ) (2021-06-13T11:20:31Z) - Covid-19 Detection from Chest X-ray and Patient Metadata using Graph
Convolutional Neural Networks [6.420262246029286]
本稿では,Covid-19肺炎のバイオマーカーを同定可能な新しいグラフ畳み込みニューラルネットワーク(GCN)を提案する。
提案手法は,データインスタンスとその特徴間の重要な関係知識をグラフ表現を用いて利用し,グラフデータ学習に畳み込みを適用する。
論文 参考訳(メタデータ) (2021-05-20T13:13:29Z) - Towards Semantic Interpretation of Thoracic Disease and COVID-19
Diagnosis Models [38.64779427647742]
畳み込みニューラルネットワークは胸部X線による胸部病変の自動診断において有望である。
本研究では,まずネットワークの内部単位(特徴マップ)に関連付けられた意味を同定する。
学習特徴の解釈性に及ぼす事前学習とデータ不均衡の影響について検討した。
論文 参考訳(メタデータ) (2021-04-04T17:35:13Z) - Variational Knowledge Distillation for Disease Classification in Chest
X-Rays [102.04931207504173]
我々は,X線に基づく疾患分類のための新しい確率的推論フレームワークである反復的知識蒸留(VKD)を提案する。
提案手法の有効性を,X線画像とEHRを用いた3つの公開ベンチマークデータセットに示す。
論文 参考訳(メタデータ) (2021-03-19T14:13:56Z) - Potential Features of ICU Admission in X-ray Images of COVID-19 Patients [8.83608410540057]
本稿では,患者ICU入院ラベルを用いたデータセットから,重症度と相関する意味的特徴を抽出する手法を提案する。
この手法は、肺の病態を認識して意味的特徴を抽出するために訓練されたニューラルネットワークを使用する。
この方法では、学習した特徴の画像を選択でき、肺内の一般的な位置に関する情報を翻訳することができる。
論文 参考訳(メタデータ) (2020-09-26T13:48:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。