論文の概要: XProtoNet: Diagnosis in Chest Radiography with Global and Local
Explanations
- arxiv url: http://arxiv.org/abs/2103.10663v1
- Date: Fri, 19 Mar 2021 07:18:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-22 14:32:57.664456
- Title: XProtoNet: Diagnosis in Chest Radiography with Global and Local
Explanations
- Title(参考訳): XProtoNet: 胸部X線撮影における診断
- Authors: Eunji Kim, Siwon Kim, Minji Seo, Sungroh Yoon
- Abstract要約: XProtoNetは、胸部X線撮影のためのグローバルかつローカルに解釈可能な診断フレームワークです。
XProtoNetは、プロトタイプであるX線画像から各疾患の代表パターンを学習し、所定のX線画像上で診断を行う。
プロトタイプが単一の画像の予測にどのように寄与するか、グローバルな説明、プロトタイプ、ローカルな説明を提供することができる。
- 参考スコア(独自算出の注目度): 19.71623263373982
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Automated diagnosis using deep neural networks in chest radiography can help
radiologists detect life-threatening diseases. However, existing methods only
provide predictions without accurate explanations, undermining the
trustworthiness of the diagnostic methods. Here, we present XProtoNet, a
globally and locally interpretable diagnosis framework for chest radiography.
XProtoNet learns representative patterns of each disease from X-ray images,
which are prototypes, and makes a diagnosis on a given X-ray image based on the
patterns. It predicts the area where a sign of the disease is likely to appear
and compares the features in the predicted area with the prototypes. It can
provide a global explanation, the prototype, and a local explanation, how the
prototype contributes to the prediction of a single image. Despite the
constraint for interpretability, XProtoNet achieves state-of-the-art
classification performance on the public NIH chest X-ray dataset.
- Abstract(参考訳): 胸部X線撮影におけるディープニューラルネットワークを用いた自動診断は、放射線医が生命を脅かす病気を検出するのに役立つ。
しかし、既存の手法は正確な説明のない予測のみを提供し、診断方法の信頼性を損なう。
本稿では,胸部x線撮影のためのグローバルかつ局所的に解釈可能な診断フレームワークであるxprotonetを提案する。
XProtoNetは、プロトタイプであるX線画像から各疾患の代表的なパターンを学習し、そのパターンに基づいて所定のX線画像を診断する。
病気の兆候が現れる可能性のある領域を予測し、予測された領域の特徴をプロトタイプと比較する。
プロトタイプが単一の画像の予測にどのように寄与するか、グローバルな説明、プロトタイプ、ローカルな説明を提供することができる。
解釈可能性の制約にもかかわらず、XProtoNetはパブリックNIH胸部X線データセット上で最先端の分類性能を達成する。
関連論文リスト
- Position-Guided Prompt Learning for Anomaly Detection in Chest X-Rays [46.78926066405227]
胸部X線異常検出は重要な課題である。
近年,多数の医用画像に基づいて事前トレーニングされたCLIPベースの手法は,ゼロ/フェーショットダウンストリームタスクにおいて顕著な性能を示した。
凍結したCLIPモデルにタスクデータを適応させる位置誘導型プロンプト学習法を提案する。
論文 参考訳(メタデータ) (2024-05-20T12:11:41Z) - Act Like a Radiologist: Radiology Report Generation across Anatomical Regions [50.13206214694885]
X-RGenは6つの解剖学的領域にわたる放射線学者によるレポート生成フレームワークである。
X-RGenでは、ヒトの放射線学者の行動を模倣し、これらを4つの主要な段階に分解する。
画像エンコーダの認識能力は,各領域にまたがる画像やレポートを分析して向上する。
論文 参考訳(メタデータ) (2023-05-26T07:12:35Z) - Xplainer: From X-Ray Observations to Explainable Zero-Shot Diagnosis [36.45569352490318]
臨床現場でのゼロショット診断のためのフレームワークであるXplainerを紹介した。
Xplainerは、コントラッシブ・ビジョン言語モデルの分類・記述アプローチをマルチラベル診断タスクに適用する。
我々の結果は、Xplainerが意思決定プロセスをより詳細に理解していることを示唆している。
論文 参考訳(メタデータ) (2023-03-23T16:07:31Z) - Vision-Language Generative Model for View-Specific Chest X-ray Generation [18.347723213970696]
ViewXGenは、フロントビュー胸部X線を生成する既存のメソッドの制限を克服するように設計されている。
提案手法は, データセット内の多様な視線位置を考慮し, 特定の視線を用いた胸部X線の生成を可能にする。
論文 参考訳(メタデータ) (2023-02-23T17:13:25Z) - SQUID: Deep Feature In-Painting for Unsupervised Anomaly Detection [76.01333073259677]
無線画像からの異常検出のための空間認識型メモリキューを提案する(略してSQUID)。
SQUIDは, 微細な解剖学的構造を逐次パターンに分類でき, 推測では画像中の異常(見えない/修正されたパターン)を識別できる。
論文 参考訳(メタデータ) (2021-11-26T13:47:34Z) - Generative Residual Attention Network for Disease Detection [51.60842580044539]
本稿では, 条件付き生成逆学習を用いたX線疾患発生のための新しいアプローチを提案する。
我々は,患者の身元を保存しながら,対象領域に対応する放射線画像を生成する。
次に、ターゲット領域で生成されたX線画像を用いてトレーニングを増強し、検出性能を向上させる。
論文 参考訳(メタデータ) (2021-10-25T14:15:57Z) - Contrastive Attention for Automatic Chest X-ray Report Generation [124.60087367316531]
ほとんどの場合、正常領域が胸部X線像全体を支配し、これらの正常領域の対応する記述が最終報告を支配している。
本稿では,現在の入力画像と通常の画像を比較してコントラスト情報を抽出するContrastive Attention(CA)モデルを提案する。
2つの公開データセットで最先端の結果を得る。
論文 参考訳(メタデータ) (2021-06-13T11:20:31Z) - Explaining COVID-19 and Thoracic Pathology Model Predictions by
Identifying Informative Input Features [47.45835732009979]
ニューラルネットワークは胸部X線上の分類および回帰タスクにおいて顕著な性能を示した。
特徴帰属法は、出力予測における入力特徴の重要性を識別する。
本研究では,NIH Chest X-ray8およびBrixIAデータセット上で,人間中心の解釈可能性指標と人間に依存しない特徴重要度指標の両方を用いて評価する。
論文 参考訳(メタデータ) (2021-04-01T11:42:39Z) - Learning Invariant Feature Representation to Improve Generalization
across Chest X-ray Datasets [55.06983249986729]
我々は、トレーニングデータと同じデータセットでテストすると、ディープラーニングモデルが、異なるソースからデータセットでテストされると、パフォーマンスが低下し始めることを示す。
対戦型トレーニング戦略を用いることで、ネットワークはソース不変表現を学習せざるを得ないことを示す。
論文 参考訳(メタデータ) (2020-08-04T07:41:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。