論文の概要: S4M: Generating Radiology Reports by A Single Model for Multiple Body
Parts
- arxiv url: http://arxiv.org/abs/2305.16685v1
- Date: Fri, 26 May 2023 07:12:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-29 16:30:26.034493
- Title: S4M: Generating Radiology Reports by A Single Model for Multiple Body
Parts
- Title(参考訳): S4M:複数部位の単一モデルによる放射線診断レポートの作成
- Authors: Qi Chen, Yutong Xie, Biao Wu, Minh-Son To, James Ang, Qi Wu
- Abstract要約: 本稿では,2つの補助的な先行するレポート生成モデルの学習を容易にするためのS4Mフレームワークを提案する。
我々は、パブリックデータセット(e, IU-Xray)と5つのプライベートデータセットからなる統合データセットの実験を行い、6つのボディ部分をカバーする。
- 参考スコア(独自算出の注目度): 20.830679324906473
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In this paper, we seek to design a report generation model that is able to
generate reasonable reports even given different images of various body parts.
We start by directly merging multiple datasets and training a single report
generation model on this one. We, however, observe that the reports generated
in such a simple way only obtain comparable performance compared with that
trained separately on each specific dataset. We suspect that this is caused by
the dilemma between the diversity of body parts and the limited availability of
medical data. To develop robust and generalizable models, it is important to
consider a diverse range of body parts and medical conditions. However,
collecting a sufficiently large dataset for each specific body part can be
difficult due to various factors, such as data availability and privacy
concerns. Thus, rather than striving for more data, we propose a
single-for-multiple (S4M) framework, which seeks to facilitate the learning of
the report generation model with two auxiliary priors: an explicit prior (\ie,
feeding radiology-informed knowledge) and an implicit prior (\ie, guided by
cross-modal features). Specifically, based on the conventional encoder-decoder
report generation framework, we incorporate two extra branches: a
Radiology-informed Knowledge Aggregation (RadKA) branch and an Implicit Prior
Guidance (IPG) branch. We conduct the experiments on our merged dataset which
consists of a public dataset (\ie, IU-Xray) and five private datasets, covering
six body parts: chest, abdomen, knee, hip, wrist and shoulder. Our S4M model
outperforms all the baselines, regardless of whether they are trained on
separate or merged datasets. Code is available at:
\url{https://github.com/YtongXie/S4M}.
- Abstract(参考訳): 本稿では,様々な身体部位の異なる画像であっても合理的なレポートを生成できるレポート生成モデルについて検討する。
まず、複数のデータセットを直接マージして、単一のレポート生成モデルをトレーニングします。
しかし、このような単純な方法で生成されたレポートは、個々のデータセットで個別に訓練されたレポートと同等のパフォーマンスしか得られない。
これは、身体部分の多様性と医療データの利用率の制限によるジレンマによるものと考えられる。
堅牢で一般化可能なモデルを開発するためには,多様な身体部位や医療状況を考慮することが重要である。
しかし、データ可用性やプライバシの懸念など、さまざまな要因により、特定の身体部分ごとに十分なデータセットを収集することは困難である。
そこで本稿では, より詳細なデータを求めるのではなく, 明確な先行情報(無線情報提供)と暗黙的な先行情報(モーダルな特徴によって導かれる)の2つの補助的先行情報を用いて, レポート生成モデルの学習を促進する一元多元化(S4M)フレームワークを提案する。
具体的には、従来のエンコーダ-デコーダレポート生成フレームワークに基づいて、Radlogy-informed Knowledge Aggregation (RadKA)ブランチとImplicit Prior Guidance (IPG)ブランチの2つの追加ブランチを組み込む。
胸部,腹部,膝,股関節,手首,肩の6つの身体部分をカバーする,公開データセット(\ie, IU-Xray)と5つのプライベートデータセットからなる統合データセットの実験を行った。
私たちのS4Mモデルは、別々のデータセットやマージされたデータセットでトレーニングされているかどうかに関わらず、すべてのベースラインを上回ります。
コードは \url{https://github.com/ytongxie/s4m} で入手できる。
関連論文リスト
- FG-CXR: A Radiologist-Aligned Gaze Dataset for Enhancing Interpretability in Chest X-Ray Report Generation [9.374812942790953]
我々は, 放射線学者が生成したキャプションと, 各解剖学の視線注意熱マップとの間に, 微粒なペアリング情報を提供するFine-Grained CXRデータセットを提案する。
解析の結果, ブラックボックス画像キャプション法を用いてレポートを生成するだけでは, CXRのどの情報を利用するのかを適切に説明できないことがわかった。
本稿では, 放射線科医の視線と転写の両面を密接に一致させるため, 放射線科医の診断過程を模倣する新しい注意生成ネットワーク(Gen-XAI)を提案する。
論文 参考訳(メタデータ) (2024-11-23T02:22:40Z) - Decoding Radiologists' Intentions: A Novel System for Accurate Region Identification in Chest X-ray Image Analysis [2.207061125661163]
胸部X線(CXR)画像解析では、放射線技師は様々な領域を慎重に観察し、レポートにその観察を記録している。
CXR診断における誤りの頻度、特に経験の浅い放射線科医や病院の住民は、放射線科医の意図とそれに伴う関心領域を理解することの重要性を強調している。
本報告では, 放射線技師がCXR画像に対する関心領域について, 主観的意図を識別するシステムを提案する。
論文 参考訳(メタデータ) (2024-04-29T15:18:26Z) - ChatRadio-Valuer: A Chat Large Language Model for Generalizable
Radiology Report Generation Based on Multi-institution and Multi-system Data [115.0747462486285]
ChatRadio-Valuerは、一般化可能な表現を学習する自動放射線学レポート生成のための調整されたモデルである。
本研究で利用した臨床データセットは,textbf332,673の顕著な総計を含む。
ChatRadio-Valuerは、最先端のモデル、特にChatGPT(GPT-3.5-Turbo)やGPT-4などより一貫して優れている。
論文 参考訳(メタデータ) (2023-10-08T17:23:17Z) - Generation of Radiology Findings in Chest X-Ray by Leveraging
Collaborative Knowledge [6.792487817626456]
医学的イメージを解釈する認知的タスクは、放射線学のワークフローにおいて最も重要であり、しばしば時間を要するステップである。
この研究は、ほとんどの時間をFindingsの執筆またはナレーションに費やしている放射線学者の作業量を削減することに焦点を当てている。
単段階画像キャプションタスクとして放射線学レポートを生成する過去の研究とは異なり、CXR画像の解釈の複雑さを考慮に入れている。
論文 参考訳(メタデータ) (2023-06-18T00:51:28Z) - XrayGPT: Chest Radiographs Summarization using Medical Vision-Language
Models [60.437091462613544]
我々は,会話型医療ビジョン言語モデルであるXrayGPTを紹介する。
胸部X線写真に関するオープンエンドの質問を分析し、答えることができる。
自由テキストラジオグラフィーレポートから217kの対話的かつ高品質な要約を生成する。
論文 参考訳(メタデータ) (2023-06-13T17:59:59Z) - Self adaptive global-local feature enhancement for radiology report
generation [10.958641951927817]
グローバル・解剖学的領域の特徴を動的に融合して多粒性放射線学レポートを生成する新しいフレームワーク AGFNet を提案する。
まず,入力胸部X線(CXR)の解剖学的特徴と大域的特徴を抽出する。
そして,領域の特徴とグローバルな特徴を入力として,提案した自己適応型核融合ゲートモジュールは動的に多粒性情報を融合することができる。
最後に、キャプション生成装置は、多粒性特徴により放射線学レポートを生成する。
論文 参考訳(メタデータ) (2022-11-21T11:50:42Z) - Generative Residual Attention Network for Disease Detection [51.60842580044539]
本稿では, 条件付き生成逆学習を用いたX線疾患発生のための新しいアプローチを提案する。
我々は,患者の身元を保存しながら,対象領域に対応する放射線画像を生成する。
次に、ターゲット領域で生成されたX線画像を用いてトレーニングを増強し、検出性能を向上させる。
論文 参考訳(メタデータ) (2021-10-25T14:15:57Z) - XraySyn: Realistic View Synthesis From a Single Radiograph Through CT
Priors [118.27130593216096]
放射線写真は、X線を用いて患者の内部解剖を視覚化し、3D情報を2次元平面に投影する。
私たちの知る限りでは、ラジオグラフィビューの合成に関する最初の研究である。
本手法は,3次元空間におけるX線撮影の理解を得ることにより,地中骨ラベルを使わずに,X線撮影による骨抽出と骨抑制に応用できることが示唆された。
論文 参考訳(メタデータ) (2020-12-04T05:08:53Z) - XRayGAN: Consistency-preserving Generation of X-ray Images from
Radiology Reports [19.360283053558604]
我々は,X線画像から高精細・高精細・高精細・高精細なX線画像を生成する手法を開発した。
この研究は、放射線学報告から一貫した高解像度のX線画像を生成する最初のものである。
論文 参考訳(メタデータ) (2020-06-17T05:32:14Z) - Auxiliary Signal-Guided Knowledge Encoder-Decoder for Medical Report
Generation [107.3538598876467]
放射線技師の動作パターンを模倣する補助信号誘導知識デコーダ(ASGK)を提案する。
ASGKは、内的特徴融合と外部医療言語情報を統合して、医療知識の伝達と学習をガイドする。
論文 参考訳(メタデータ) (2020-06-06T01:00:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。