論文の概要: Interpretable Vertebral Fracture Diagnosis
- arxiv url: http://arxiv.org/abs/2203.16273v1
- Date: Wed, 30 Mar 2022 13:07:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-31 16:27:43.873801
- Title: Interpretable Vertebral Fracture Diagnosis
- Title(参考訳): 経皮的椎体骨折診断
- Authors: Paul Engstler, Matthias Keicher, David Schinz, Kristina Mach,
Alexandra S. Gersing, Sarah C. Foreman, Sophia S. Goller, Juergen Weissinger,
Jon Rischewski, Anna-Sophia Dietrich, Benedikt Wiestler, Jan S. Kirschke,
Ashkan Khakzar, Nassir Navab
- Abstract要約: ブラックボックスニューラルネットワークモデルは、骨折診断のための臨床的に関連する特徴を学習する。
この研究は、CT画像における脊椎骨折の診断にネットワークが使用する概念を特定する。
- 参考スコア(独自算出の注目度): 69.68641439851777
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Do black-box neural network models learn clinically relevant features for
fracture diagnosis? The answer not only establishes reliability quenches
scientific curiosity but also leads to explainable and verbose findings that
can assist the radiologists in the final and increase trust. This work
identifies the concepts networks use for vertebral fracture diagnosis in CT
images. This is achieved by associating concepts to neurons highly correlated
with a specific diagnosis in the dataset. The concepts are either associated
with neurons by radiologists pre-hoc or are visualized during a specific
prediction and left for the user's interpretation. We evaluate which concepts
lead to correct diagnosis and which concepts lead to false positives. The
proposed frameworks and analysis pave the way for reliable and explainable
vertebral fracture diagnosis.
- Abstract(参考訳): black-boxニューラルネットワークモデルは骨折診断に臨床的に関連した特徴を学ぶか?
この答えは、科学的好奇心を沈静化させるだけでなく、放射線科医の最終的な支援と信頼の増大につながる説明可能かつ冗長な発見につながる。
この研究は、CT画像における脊椎骨折の診断にネットワークが使用する概念を特定する。
これは、データセット内の特定の診断と高い相関を持つニューロンに概念を関連付けることで達成される。
この概念は、放射線学者によるニューロンと関連付けられているか、特定の予測中に可視化され、ユーザの解釈に残されている。
我々は、どの概念が正しい診断につながるか、どの概念が偽陽性につながるかを評価する。
提案したフレームワークと解析は、信頼性と説明可能な脊椎骨折診断の道を開いた。
関連論文リスト
- Mining Gaze for Contrastive Learning toward Computer-Assisted Diagnosis [61.089776864520594]
医用画像のテキストレポートの代替としてアイトラッキングを提案する。
医用画像を読み,診断する際に放射線科医の視線を追跡することにより,その視覚的注意と臨床的理由を理解することができる。
対照的な学習フレームワークのためのプラグイン・アンド・プレイモジュールとして,McGIP (McGIP) を導入した。
論文 参考訳(メタデータ) (2023-12-11T02:27:45Z) - Xplainer: From X-Ray Observations to Explainable Zero-Shot Diagnosis [36.45569352490318]
臨床現場でのゼロショット診断のためのフレームワークであるXplainerを紹介した。
Xplainerは、コントラッシブ・ビジョン言語モデルの分類・記述アプローチをマルチラベル診断タスクに適用する。
我々の結果は、Xplainerが意思決定プロセスをより詳細に理解していることを示唆している。
論文 参考訳(メタデータ) (2023-03-23T16:07:31Z) - This Patient Looks Like That Patient: Prototypical Networks for
Interpretable Diagnosis Prediction from Clinical Text [56.32427751440426]
臨床実践においては、そのようなモデルは正確であるだけでなく、医師に解釈可能で有益な結果を与える必要がある。
本稿では,プロトタイプネットワークに基づく新しい手法であるProtoPatientを紹介する。
利用可能な2つの臨床データセット上でモデルを評価し、既存のベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2022-10-16T10:12:07Z) - Automatic Infectious Disease Classification Analysis with Concept
Discovery [9.606677000204831]
我々は、概念の自動発見、すなわち人間の解釈可能な属性は、医学画像解析タスクにおける学習情報の深い理解を可能にすると論じている。
医用画像とコンピュータビジョンのコミュニティにおける既存の概念発見アプローチの概要について述べる。
我々は,教師なし,弱教師付き,教師付きシナリオにおいて統一的に機能する概念発見による解釈可能性の一般式であるNMFxを提案する。
論文 参考訳(メタデータ) (2022-08-28T05:33:44Z) - BI-RADS-Net: An Explainable Multitask Learning Approach for Cancer
Diagnosis in Breast Ultrasound Images [69.41441138140895]
本稿では,乳房超音波画像における癌検出のための新しい深層学習手法であるBI-RADS-Netを紹介する。
提案手法は, 臨床診断に関連する特徴表現を学習することにより, 乳腺腫瘍の説明と分類を行うタスクを取り入れたものである。
臨床医が医療現場で診断・報告するために使用する形態学的特徴の観点から予測(良性または悪性)の説明が提供される。
論文 参考訳(メタデータ) (2021-10-05T19:14:46Z) - Using Causal Analysis for Conceptual Deep Learning Explanation [11.552000005640203]
理想的な説明はドメインエキスパートの意思決定プロセスに似ている。
胸部X線像を伴って放射線検査を行い,概念を定義した。
我々は、発見されたすべての概念を簡単な決定規則に変換するために、低深度決定木を構築します。
論文 参考訳(メタデータ) (2021-07-10T00:01:45Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z) - Inheritance-guided Hierarchical Assignment for Clinical Automatic
Diagnosis [50.15205065710629]
臨床診断は、臨床ノートに基づいて患者に診断符号を割り当てることを目的としており、臨床意思決定において重要な役割を担っている。
本稿では,臨床自動診断のための継承誘導階層と共起グラフの伝播を組み合わせた新しい枠組みを提案する。
論文 参考訳(メタデータ) (2021-01-27T13:16:51Z) - Uncertainty aware and explainable diagnosis of retinal disease [0.0]
4つの網膜疾患の診断のための深層学習モデルの不確実性解析を行う。
不確実性が認識されている間にシステムが予測に使用する特徴は、システムが決定について確信が持たないときにハイライトする能力である。
論文 参考訳(メタデータ) (2021-01-26T23:37:30Z) - Constructing and Evaluating an Explainable Model for COVID-19 Diagnosis
from Chest X-rays [15.664919899567288]
我々は,X線画像の取得がCTスキャンなどの高品質画像の取得よりも容易で安価である状況において,臨床医の診断を支援するモデルの構築に重点を置いている。
深層ニューラルネットワークは、画像データから直接疾患検出のための高い予測モデルを構築することができることが繰り返し示されている。
論文 参考訳(メタデータ) (2020-12-19T21:33:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。