論文の概要: Generation of Radiology Findings in Chest X-Ray by Leveraging
Collaborative Knowledge
- arxiv url: http://arxiv.org/abs/2306.10448v1
- Date: Sun, 18 Jun 2023 00:51:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-21 20:43:44.703602
- Title: Generation of Radiology Findings in Chest X-Ray by Leveraging
Collaborative Knowledge
- Title(参考訳): 協調的知識の活用による胸部X線の放射線学所見の生成
- Authors: Manuela Daniela Danu, George Marica, Sanjeev Kumar Karn, Bogdan
Georgescu, Awais Mansoor, Florin Ghesu, Lucian Mihai Itu, Constantin Suciu,
Sasa Grbic, Oladimeji Farri, Dorin Comaniciu
- Abstract要約: 医学的イメージを解釈する認知的タスクは、放射線学のワークフローにおいて最も重要であり、しばしば時間を要するステップである。
この研究は、ほとんどの時間をFindingsの執筆またはナレーションに費やしている放射線学者の作業量を削減することに焦点を当てている。
単段階画像キャプションタスクとして放射線学レポートを生成する過去の研究とは異なり、CXR画像の解釈の複雑さを考慮に入れている。
- 参考スコア(独自算出の注目度): 6.792487817626456
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Among all the sub-sections in a typical radiology report, the Clinical
Indications, Findings, and Impression often reflect important details about the
health status of a patient. The information included in Impression is also
often covered in Findings. While Findings and Impression can be deduced by
inspecting the image, Clinical Indications often require additional context.
The cognitive task of interpreting medical images remains the most critical and
often time-consuming step in the radiology workflow. Instead of generating an
end-to-end radiology report, in this paper, we focus on generating the Findings
from automated interpretation of medical images, specifically chest X-rays
(CXRs). Thus, this work focuses on reducing the workload of radiologists who
spend most of their time either writing or narrating the Findings. Unlike past
research, which addresses radiology report generation as a single-step image
captioning task, we have further taken into consideration the complexity of
interpreting CXR images and propose a two-step approach: (a) detecting the
regions with abnormalities in the image, and (b) generating relevant text for
regions with abnormalities by employing a generative large language model
(LLM). This two-step approach introduces a layer of interpretability and aligns
the framework with the systematic reasoning that radiologists use when
reviewing a CXR.
- Abstract(参考訳): 典型的な放射線医学レポートの全てのサブセクションのうち、臨床適応、所見、印象は患者の健康状態に関する重要な詳細を反映していることが多い。
インプレッションに含まれる情報は、しばしば発見によってカバーされる。
FindingsとImpressionは画像の検査によって推測できるが、臨床指標は追加のコンテキストを必要とすることが多い。
医学的イメージを解釈する認知的タスクは、放射線学のワークフローにおいて最も重要かつしばしば時間を要するステップである。
本稿では,医療画像の自動解釈,特に胸部X線(CXR)から発見物を生成することに焦点を当てた。
したがって、この研究は、研究の執筆やナレーションにほとんどの時間を費やす放射線科医の作業量を減らすことに焦点を当てている。
ラジオグラフィーレポート生成を単一ステップ画像キャプションタスクとして扱う過去の研究とは異なり、CXR画像の解釈の複雑さを考慮し、2段階のアプローチを提案する。
(a)画像に異常のある領域を検出すること、
(b)生成型大言語モデル(llm)を用いて異常領域の関連テキストを生成すること。
この2段階のアプローチは解釈可能性の層を導入し、放射線技師がcxrをレビューする際に使用する体系的な推論とフレームワークを整合させる。
関連論文リスト
- Structural Entities Extraction and Patient Indications Incorporation for Chest X-ray Report Generation [10.46031380503486]
胸部X線レポート生成のための新しい方法である textbfStructural textbfEntities 抽出法と textbfIncorporation (SEI) を考案した。
我々は、レポートにおけるプレゼンテーションスタイルの語彙を排除するために、構造エンティティ抽出(SEE)アプローチを採用する。
我々は,X線画像,類似の歴史的症例,患者固有の指標からの情報を統合するクロスモーダル融合ネットワークを提案する。
論文 参考訳(メタデータ) (2024-05-23T01:29:47Z) - Self-supervised vision-langage alignment of deep learning representations for bone X-rays analysis [53.809054774037214]
本稿では, 骨X線とフレンチレポートを組み合わせることで, 視覚言語による事前訓練を活用することを提案する。
骨X線表現にまつわる埋め込み空間を形成するために、フランスの報告を統合する最初の研究である。
論文 参考訳(メタデータ) (2024-05-14T19:53:20Z) - Decoding Radiologists' Intentions: A Novel System for Accurate Region Identification in Chest X-ray Image Analysis [2.207061125661163]
胸部X線(CXR)画像解析では、放射線技師は様々な領域を慎重に観察し、レポートにその観察を記録している。
CXR診断における誤りの頻度、特に経験の浅い放射線科医や病院の住民は、放射線科医の意図とそれに伴う関心領域を理解することの重要性を強調している。
本報告では, 放射線技師がCXR画像に対する関心領域について, 主観的意図を識別するシステムを提案する。
論文 参考訳(メタデータ) (2024-04-29T15:18:26Z) - Radiology Report Generation Using Transformers Conditioned with
Non-imaging Data [55.17268696112258]
本稿では,胸部X線画像と関連する患者の人口統計情報を統合したマルチモーダルトランスフォーマーネットワークを提案する。
提案ネットワークは、畳み込みニューラルネットワークを用いて、CXRから視覚的特徴を抽出し、その視覚的特徴と患者の人口統計情報のセマンティックテキスト埋め込みを組み合わせたトランスフォーマーベースのエンコーダデコーダネットワークである。
論文 参考訳(メタデータ) (2023-11-18T14:52:26Z) - Local Contrastive Learning for Medical Image Recognition [0.0]
Local Region Contrastive Learning(LRCLR)は、画像領域の選択と相互モダリティの相互作用のためのレイヤを追加するフレキシブルな微調整フレームワークである。
胸部X線検査の結果から,LRCLRは重要な局所画像領域を同定し,放射線学的テキストに対して有意義な解釈を提供する可能性が示唆された。
論文 参考訳(メタデータ) (2023-03-24T17:04:26Z) - Improving Radiology Summarization with Radiograph and Anatomy Prompts [60.30659124918211]
本稿では,印象生成を促進するために,新しい解剖学的拡張型マルチモーダルモデルを提案する。
より詳しくは、まず、解剖学を抽出する一連のルールを構築し、各文にこれらのプロンプトを配置し、解剖学的特徴を強調する。
コントラスト学習モジュールを用いて、これらの2つの表現を全体レベルで整列させ、コアテンションを用いて文レベルで融合させる。
論文 参考訳(メタデータ) (2022-10-15T14:05:03Z) - Medical Image Captioning via Generative Pretrained Transformers [57.308920993032274]
我々は、Show-Attend-Tell と GPT-3 という2つの言語モデルを組み合わせて、包括的で記述的な放射線学記録を生成する。
提案モデルは、Open-I、MIMIC-CXR、汎用MS-COCOの2つの医療データセットで検証される。
論文 参考訳(メタデータ) (2022-09-28T10:27:10Z) - Generative Residual Attention Network for Disease Detection [51.60842580044539]
本稿では, 条件付き生成逆学習を用いたX線疾患発生のための新しいアプローチを提案する。
我々は,患者の身元を保存しながら,対象領域に対応する放射線画像を生成する。
次に、ターゲット領域で生成されたX線画像を用いてトレーニングを増強し、検出性能を向上させる。
論文 参考訳(メタデータ) (2021-10-25T14:15:57Z) - Auxiliary Signal-Guided Knowledge Encoder-Decoder for Medical Report
Generation [107.3538598876467]
放射線技師の動作パターンを模倣する補助信号誘導知識デコーダ(ASGK)を提案する。
ASGKは、内的特徴融合と外部医療言語情報を統合して、医療知識の伝達と学習をガイドする。
論文 参考訳(メタデータ) (2020-06-06T01:00:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。