論文の概要: Controllable Chest X-Ray Report Generation from Longitudinal
Representations
- arxiv url: http://arxiv.org/abs/2310.05881v1
- Date: Mon, 9 Oct 2023 17:22:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-10 22:10:19.193068
- Title: Controllable Chest X-Ray Report Generation from Longitudinal
Representations
- Title(参考訳): 縦方向表現による胸部X線放射の制御
- Authors: Francesco Dalla Serra, Chaoyang Wang, Fani Deligianni, Jeffrey Dalton,
Alison Q O'Neil
- Abstract要約: レポートをスピードアップする1つの戦略は、自動レポートシステムを統合することである。
自動放射線診断への従来のアプローチは、入力として事前の研究を提供していないのが一般的である。
筆者らは,(1) 縦断学習 -- マルチモーダルレポート生成モデルに提供可能な関節長手表現に,現在のスキャン情報と先行スキャン情報を整合し,活用する手法を提案する。(2) 文解剖学的ドロップアウト -- レポート生成モデルを用いて,入力として与えられた解剖学的領域のサブセットに対応する元のレポートからのみ文を予測する訓練戦略。
- 参考スコア(独自算出の注目度): 13.151444796296868
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Radiology reports are detailed text descriptions of the content of medical
scans. Each report describes the presence/absence and location of relevant
clinical findings, commonly including comparison with prior exams of the same
patient to describe how they evolved. Radiology reporting is a time-consuming
process, and scan results are often subject to delays. One strategy to speed up
reporting is to integrate automated reporting systems, however clinical
deployment requires high accuracy and interpretability. Previous approaches to
automated radiology reporting generally do not provide the prior study as
input, precluding comparison which is required for clinical accuracy in some
types of scans, and offer only unreliable methods of interpretability.
Therefore, leveraging an existing visual input format of anatomical tokens, we
introduce two novel aspects: (1) longitudinal representation learning -- we
input the prior scan as an additional input, proposing a method to align,
concatenate and fuse the current and prior visual information into a joint
longitudinal representation which can be provided to the multimodal report
generation model; (2) sentence-anatomy dropout -- a training strategy for
controllability in which the report generator model is trained to predict only
sentences from the original report which correspond to the subset of anatomical
regions given as input. We show through in-depth experiments on the MIMIC-CXR
dataset how the proposed approach achieves state-of-the-art results while
enabling anatomy-wise controllable report generation.
- Abstract(参考訳): 放射線レポートは、医療スキャンの内容の詳細なテキスト記述である。
それぞれの報告は関連する臨床所見の存在/観察と位置を記述しており、一般的には、患者がどのように進化したかを説明するために同じ患者の事前検査との比較を含んでいる。
放射線学報告は時間を要するプロセスであり、スキャン結果はしばしば遅延する。
報告をスピードアップする戦略の一つは、自動報告システムを統合することだが、臨床展開には高い正確性と解釈性が必要である。
オートマチックラジオグラフィーの報告に対する従来のアプローチは、いくつかの種類のスキャンで臨床精度に必要とされる比較を前もって、入力として事前の研究を提供していない。
Therefore, leveraging an existing visual input format of anatomical tokens, we introduce two novel aspects: (1) longitudinal representation learning -- we input the prior scan as an additional input, proposing a method to align, concatenate and fuse the current and prior visual information into a joint longitudinal representation which can be provided to the multimodal report generation model; (2) sentence-anatomy dropout -- a training strategy for controllability in which the report generator model is trained to predict only sentences from the original report which correspond to the subset of anatomical regions given as input.
我々は,MIMIC-CXRデータセットの詳細な実験を通して,解剖学的に制御可能なレポート生成を可能にしながら,提案手法が最先端の結果を達成する方法を示す。
関連論文リスト
- Structural Entities Extraction and Patient Indications Incorporation for Chest X-ray Report Generation [10.46031380503486]
胸部X線レポート生成のための新しい方法である textbfStructural textbfEntities 抽出法と textbfIncorporation (SEI) を考案した。
我々は、レポートにおけるプレゼンテーションスタイルの語彙を排除するために、構造エンティティ抽出(SEE)アプローチを採用する。
我々は,X線画像,類似の歴史的症例,患者固有の指標からの情報を統合するクロスモーダル融合ネットワークを提案する。
論文 参考訳(メタデータ) (2024-05-23T01:29:47Z) - Radiology Report Generation Using Transformers Conditioned with
Non-imaging Data [55.17268696112258]
本稿では,胸部X線画像と関連する患者の人口統計情報を統合したマルチモーダルトランスフォーマーネットワークを提案する。
提案ネットワークは、畳み込みニューラルネットワークを用いて、CXRから視覚的特徴を抽出し、その視覚的特徴と患者の人口統計情報のセマンティックテキスト埋め込みを組み合わせたトランスフォーマーベースのエンコーダデコーダネットワークである。
論文 参考訳(メタデータ) (2023-11-18T14:52:26Z) - Improving Radiology Summarization with Radiograph and Anatomy Prompts [60.30659124918211]
本稿では,印象生成を促進するために,新しい解剖学的拡張型マルチモーダルモデルを提案する。
より詳しくは、まず、解剖学を抽出する一連のルールを構築し、各文にこれらのプロンプトを配置し、解剖学的特徴を強調する。
コントラスト学習モジュールを用いて、これらの2つの表現を全体レベルで整列させ、コアテンションを用いて文レベルで融合させる。
論文 参考訳(メタデータ) (2022-10-15T14:05:03Z) - Medical Image Captioning via Generative Pretrained Transformers [57.308920993032274]
我々は、Show-Attend-Tell と GPT-3 という2つの言語モデルを組み合わせて、包括的で記述的な放射線学記録を生成する。
提案モデルは、Open-I、MIMIC-CXR、汎用MS-COCOの2つの医療データセットで検証される。
論文 参考訳(メタデータ) (2022-09-28T10:27:10Z) - FlexR: Few-shot Classification with Language Embeddings for Structured
Reporting of Chest X-rays [37.15474283789249]
構造化された報告テンプレートにおける文によって定義される臨床所見を予測する手法を提案する。
この手法は、胸部X線と関連する自由テキストラジオグラフィーレポートを用いて、対照的な言語画像モデルを訓練することを含む。
その結果, 訓練用画像レベルのアノテーションが限られている場合でも, 胸部X線における重症度評価の構造化された報告タスクを達成できることが示唆された。
論文 参考訳(メタデータ) (2022-03-29T16:31:39Z) - Learning Semi-Structured Representations of Radiology Reports [10.134080761449093]
放射線学レポートのコーパスを考えると、研究者は特定の医学的発見を説明するレポートのサブセットを見つけることにしばしば興味を持っている。
最近の研究では、ラジオロジーレポートにおける自由文文を、限られた語彙から取られた半構造化語列にマッピングする提案がなされている。
本稿では,放射線学報告の半構造化表現の自動生成手法を提案する。
論文 参考訳(メタデータ) (2021-12-20T18:53:41Z) - Weakly Supervised Contrastive Learning for Chest X-Ray Report Generation [3.3978173451092437]
放射線画像から記述テキストを自動的に生成することを目的とした放射線学レポート生成。
典型的な設定は、エンコーダとデコーダのモデルを、クロスエントロピー損失のあるイメージレポートペアでトレーニングする。
本稿では,医療報告生成におけるコントラスト損失の弱化について提案する。
論文 参考訳(メタデータ) (2021-09-25T00:06:23Z) - MIMO: Mutual Integration of Patient Journey and Medical Ontology for
Healthcare Representation Learning [49.57261599776167]
本稿では、医療表現学習と予測分析のための、エンドツーエンドの堅牢なトランスフォーマーベースのソリューション、患者旅行の相互統合、医療オントロジー(MIMO)を提案する。
論文 参考訳(メタデータ) (2021-07-20T07:04:52Z) - BiteNet: Bidirectional Temporal Encoder Network to Predict Medical
Outcomes [53.163089893876645]
本稿では,患者の医療旅行におけるコンテキスト依存と時間的関係を捉える,新たな自己注意機構を提案する。
エンド・ツー・エンドの双方向時間エンコーダネットワーク(BiteNet)が患者の旅路の表現を学習する。
実世界のEHRデータセットを用いた2つの教師付き予測と2つの教師なしクラスタリングタスクにおける手法の有効性を評価した。
論文 参考訳(メタデータ) (2020-09-24T00:42:36Z) - Auxiliary Signal-Guided Knowledge Encoder-Decoder for Medical Report
Generation [107.3538598876467]
放射線技師の動作パターンを模倣する補助信号誘導知識デコーダ(ASGK)を提案する。
ASGKは、内的特徴融合と外部医療言語情報を統合して、医療知識の伝達と学習をガイドする。
論文 参考訳(メタデータ) (2020-06-06T01:00:15Z) - Show, Describe and Conclude: On Exploiting the Structure Information of
Chest X-Ray Reports [5.6070625920019825]
胸部X線像(CXR)は臨床検診や診断に一般的に用いられる。
レポートのセクションと内部の複雑な構造は、自動レポート生成に大きな課題をもたらします。
本稿では,CXRイメージングレポートを生成するために,レポートセクション間の構造情報を利用する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-04-26T02:29:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。