論文の概要: Explaining Chest X-ray Pathologies in Natural Language
- arxiv url: http://arxiv.org/abs/2207.04343v1
- Date: Sat, 9 Jul 2022 22:09:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-12 13:07:55.149343
- Title: Explaining Chest X-ray Pathologies in Natural Language
- Title(参考訳): 自然言語における胸部X線診断
- Authors: Maxime Kayser, Cornelius Emde, Oana-Maria Camburu, Guy Parsons,
Bartlomiej Papiez, Thomas Lukasiewicz
- Abstract要約: 医用画像上での予測を正当化するために,自然言語説明(NLE)を生成するタスクを導入する。
NLEは人間フレンドリで包括的であり、本質的に説明可能なモデルのトレーニングを可能にする。
NLEを用いた最初の大規模医用画像データセットMIMIC-NLEを紹介する。
- 参考スコア(独自算出の注目度): 46.11255491490225
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most deep learning algorithms lack explanations for their predictions, which
limits their deployment in clinical practice. Approaches to improve
explainability, especially in medical imaging, have often been shown to convey
limited information, be overly reassuring, or lack robustness. In this work, we
introduce the task of generating natural language explanations (NLEs) to
justify predictions made on medical images. NLEs are human-friendly and
comprehensive, and enable the training of intrinsically explainable models. To
this goal, we introduce MIMIC-NLE, the first, large-scale, medical imaging
dataset with NLEs. It contains over 38,000 NLEs, which explain the presence of
various thoracic pathologies and chest X-ray findings. We propose a general
approach to solve the task and evaluate several architectures on this dataset,
including via clinician assessment.
- Abstract(参考訳): ほとんどのディープラーニングアルゴリズムは、臨床実践におけるデプロイメントを制限する予測の説明を欠いている。
説明可能性を改善するアプローチ、特に医用画像では、限られた情報を伝達したり、過度に安心したり、堅牢性を欠いたりすることがしばしば示されている。
本研究では,医学画像上の予測を正当化するための自然言語説明(NLE)作成の課題を紹介する。
NLEは人間フレンドリで包括的で、本質的に説明可能なモデルのトレーニングを可能にする。
この目的のために,NLEを用いた最初の大規模医療画像データセットMIMIC-NLEを紹介する。
胸部X線所見や胸部胸部X線所見を説明できる38,000以上のNLEが含まれている。
本稿では,この課題を解決するための一般的なアプローチを提案し,臨床評価を含むいくつかのアーキテクチャを評価する。
関連論文リスト
- Robust and Interpretable Medical Image Classifiers via Concept
Bottleneck Models [49.95603725998561]
本稿では,自然言語の概念を用いた堅牢で解釈可能な医用画像分類器を構築するための新しいパラダイムを提案する。
具体的には、まず臨床概念をGPT-4から検索し、次に視覚言語モデルを用いて潜在画像の特徴を明示的な概念に変換する。
論文 参考訳(メタデータ) (2023-10-04T21:57:09Z) - Evaluating Large Language Models for Radiology Natural Language
Processing [68.98847776913381]
大規模言語モデル(LLM)の台頭は、自然言語処理(NLP)分野における重要な転換点となっている。
本研究は, 放射線学報告の解釈において, 30 個の LLM を批判的に評価することにより, このギャップを埋めることを目指している。
論文 参考訳(メタデータ) (2023-07-25T17:57:18Z) - XrayGPT: Chest Radiographs Summarization using Medical Vision-Language
Models [60.437091462613544]
我々は,会話型医療ビジョン言語モデルであるXrayGPTを紹介する。
胸部X線写真に関するオープンエンドの質問を分析し、答えることができる。
自由テキストラジオグラフィーレポートから217kの対話的かつ高品質な要約を生成する。
論文 参考訳(メタデータ) (2023-06-13T17:59:59Z) - Knowledge-enhanced Visual-Language Pre-training on Chest Radiology
Images [40.52487429030841]
胸部X線と放射線検査を用いた視力監督前訓練のための知識強調型自動診断(KAD)を提案する。
我々は、4つの外部X線データセット上でKADを評価し、そのゼロショット性能が完全言語モデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-02-27T18:53:10Z) - Multimodal Explainability via Latent Shift applied to COVID-19
stratification [1.1129469448121927]
本稿では,モダリティの再構築とサンプル分類を共同で学習する,設計による説明が可能な深いアーキテクチャを提案する。
AIforCOVIDデータセットを使用して、COVID-19パンデミックの文脈でのアプローチを検証する。
論文 参考訳(メタデータ) (2022-12-28T20:07:43Z) - Medical Image Captioning via Generative Pretrained Transformers [57.308920993032274]
我々は、Show-Attend-Tell と GPT-3 という2つの言語モデルを組み合わせて、包括的で記述的な放射線学記録を生成する。
提案モデルは、Open-I、MIMIC-CXR、汎用MS-COCOの2つの医療データセットで検証される。
論文 参考訳(メタデータ) (2022-09-28T10:27:10Z) - Explainable Deep Learning Methods in Medical Image Classification: A
Survey [0.0]
最先端のディープラーニングモデルは、異なるタイプの医療データの分類において、人間レベルの精度を達成した。
これらのモデルは、主に解釈可能性の欠如のために、臨床ではほとんど採用されていない。
ディープラーニングモデルのブラックボックス性は、これらのモデルの意思決定プロセスを説明するための戦略を考案する必要性を高めている。
論文 参考訳(メタデータ) (2022-05-10T09:28:14Z) - ExAID: A Multimodal Explanation Framework for Computer-Aided Diagnosis
of Skin Lesions [4.886872847478552]
ExAID(Explainable AI for Dermatology)は、バイオメディカル画像解析のための新しいフレームワークである。
マルチモーダルな概念に基づく説明を提供する。
他の生体イメージング分野でも同様の応用の基盤となるだろう。
論文 参考訳(メタデータ) (2022-01-04T17:11:28Z) - BI-RADS-Net: An Explainable Multitask Learning Approach for Cancer
Diagnosis in Breast Ultrasound Images [69.41441138140895]
本稿では,乳房超音波画像における癌検出のための新しい深層学習手法であるBI-RADS-Netを紹介する。
提案手法は, 臨床診断に関連する特徴表現を学習することにより, 乳腺腫瘍の説明と分類を行うタスクを取り入れたものである。
臨床医が医療現場で診断・報告するために使用する形態学的特徴の観点から予測(良性または悪性)の説明が提供される。
論文 参考訳(メタデータ) (2021-10-05T19:14:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。