論文の概要: FlexR: Few-shot Classification with Language Embeddings for Structured
Reporting of Chest X-rays
- arxiv url: http://arxiv.org/abs/2203.15723v2
- Date: Tue, 2 May 2023 10:08:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-03 18:23:18.033932
- Title: FlexR: Few-shot Classification with Language Embeddings for Structured
Reporting of Chest X-rays
- Title(参考訳): FlexR:胸部X線構造レポートのための言語埋め込みを用いた画像分類
- Authors: Matthias Keicher, Kamilia Zaripova, Tobias Czempiel, Kristina Mach,
Ashkan Khakzar, Nassir Navab
- Abstract要約: 構造化された報告テンプレートにおける文によって定義される臨床所見を予測する手法を提案する。
この手法は、胸部X線と関連する自由テキストラジオグラフィーレポートを用いて、対照的な言語画像モデルを訓練することを含む。
その結果, 訓練用画像レベルのアノテーションが限られている場合でも, 胸部X線における重症度評価の構造化された報告タスクを達成できることが示唆された。
- 参考スコア(独自算出の注目度): 37.15474283789249
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The automation of chest X-ray reporting has garnered significant interest due
to the time-consuming nature of the task. However, the clinical accuracy of
free-text reports has proven challenging to quantify using natural language
processing metrics, given the complexity of medical information, the variety of
writing styles, and the potential for typos and inconsistencies. Structured
reporting and standardized reports, on the other hand, can provide consistency
and formalize the evaluation of clinical correctness. However, high-quality
annotations for structured reporting are scarce. Therefore, we propose a method
to predict clinical findings defined by sentences in structured reporting
templates, which can be used to fill such templates. The approach involves
training a contrastive language-image model using chest X-rays and related
free-text radiological reports, then creating textual prompts for each
structured finding and optimizing a classifier to predict clinical findings in
the medical image. Results show that even with limited image-level annotations
for training, the method can accomplish the structured reporting tasks of
severity assessment of cardiomegaly and localizing pathologies in chest X-rays.
- Abstract(参考訳): 胸部x線レポートの自動化は、タスクの時間を要する性質から大きな関心を集めている。
しかし, 医療情報の複雑化, 筆記スタイルの多様性, タイプミスや不整合の可能性を考慮し, 自然言語処理指標の定量化が困難である。
一方、構造化レポートと標準化レポートは、整合性を提供し、臨床正当性の評価を形式化することができる。
しかし、構造化レポートのための高品質なアノテーションは少ない。
そこで本研究では,このようなテンプレートを補うために,構造化されたレポートテンプレートの文によって定義される臨床所見を予測する手法を提案する。
このアプローチでは、胸部x線および関連するフリーテキストx線レポートを用いた対比言語画像モデルをトレーニングし、構造化された検索ごとにテキストプロンプトを作成し、医学画像における臨床所見を予測するために分類器を最適化する。
その結果,訓練用画像レベルのアノテーションが限定された場合でも,胸部x線像の重症度評価と病理の局所化という構造化報告タスクを実現できることがわかった。
関連論文リスト
- RaTEScore: A Metric for Radiology Report Generation [59.37561810438641]
本稿では,Radiological Report (Text) Evaluation (RaTEScore) として,新しい実体認識尺度を提案する。
RaTEScoreは、診断結果や解剖学的詳細などの重要な医療機関を強調し、複雑な医学的同義語に対して堅牢であり、否定表現に敏感である。
我々の評価は、RaTEScoreが既存の指標よりも人間の嗜好とより密接に一致していることを示し、確立された公開ベンチマークと、新たに提案したRaTE-Evalベンチマークの両方で検証した。
論文 参考訳(メタデータ) (2024-06-24T17:49:28Z) - Structural Entities Extraction and Patient Indications Incorporation for Chest X-ray Report Generation [10.46031380503486]
胸部X線レポート生成のための新しい方法である textbfStructural textbfEntities 抽出法と textbfIncorporation (SEI) を考案した。
我々は、レポートにおけるプレゼンテーションスタイルの語彙を排除するために、構造エンティティ抽出(SEE)アプローチを採用する。
我々は,X線画像,類似の歴史的症例,患者固有の指標からの情報を統合するクロスモーダル融合ネットワークを提案する。
論文 参考訳(メタデータ) (2024-05-23T01:29:47Z) - Prompt-Guided Generation of Structured Chest X-Ray Report Using a Pre-trained LLM [5.766695041882696]
事前学習型大言語モデル(LLM)を用いた胸部X線構造レポート作成のためのプロンプト誘導手法を提案する。
まず,胸部X線で解剖学的領域を同定し,重要な視覚要素に焦点を絞った文を生成する。
また,検出された解剖学を,解剖学的理解を LLM に伝達するテキストプロンプトに変換する。
論文 参考訳(メタデータ) (2024-04-17T09:45:43Z) - Beyond Images: An Integrative Multi-modal Approach to Chest X-Ray Report
Generation [47.250147322130545]
画像からテキストまでの放射線学レポート生成は,医療画像の発見を記述した放射線学レポートを自動生成することを目的としている。
既存の方法の多くは画像データのみに焦点をあてており、他の患者情報は放射線科医に公開されていない。
胸部X線レポートを生成するための多モードディープニューラルネットワークフレームワークを,非構造的臨床ノートとともにバイタルサインや症状などの構造化された患者データを統合することで提案する。
論文 参考訳(メタデータ) (2023-11-18T14:37:53Z) - Controllable Chest X-Ray Report Generation from Longitudinal
Representations [13.151444796296868]
レポートをスピードアップする1つの戦略は、自動レポートシステムを統合することである。
自動放射線診断への従来のアプローチは、入力として事前の研究を提供していないのが一般的である。
筆者らは,(1) 縦断学習 -- マルチモーダルレポート生成モデルに提供可能な関節長手表現に,現在のスキャン情報と先行スキャン情報を整合し,活用する手法を提案する。(2) 文解剖学的ドロップアウト -- レポート生成モデルを用いて,入力として与えられた解剖学的領域のサブセットに対応する元のレポートからのみ文を予測する訓練戦略。
論文 参考訳(メタデータ) (2023-10-09T17:22:58Z) - Medical Image Captioning via Generative Pretrained Transformers [57.308920993032274]
我々は、Show-Attend-Tell と GPT-3 という2つの言語モデルを組み合わせて、包括的で記述的な放射線学記録を生成する。
提案モデルは、Open-I、MIMIC-CXR、汎用MS-COCOの2つの医療データセットで検証される。
論文 参考訳(メタデータ) (2022-09-28T10:27:10Z) - Breaking with Fixed Set Pathology Recognition through Report-Guided
Contrastive Training [23.506879497561712]
我々は、非構造化医療報告から直接概念を学ぶために、対照的なグローバルローカルなデュアルエンコーダアーキテクチャを採用している。
疾患分類のための大規模胸部X線データセットMIMIC-CXR,CheXpert,ChestX-Ray14について検討した。
論文 参考訳(メタデータ) (2022-05-14T21:44:05Z) - Weakly Supervised Contrastive Learning for Chest X-Ray Report Generation [3.3978173451092437]
放射線画像から記述テキストを自動的に生成することを目的とした放射線学レポート生成。
典型的な設定は、エンコーダとデコーダのモデルを、クロスエントロピー損失のあるイメージレポートペアでトレーニングする。
本稿では,医療報告生成におけるコントラスト損失の弱化について提案する。
論文 参考訳(メタデータ) (2021-09-25T00:06:23Z) - Variational Topic Inference for Chest X-Ray Report Generation [102.04931207504173]
医療画像のレポート生成は、作業負荷を減らし、臨床実習における診断を支援することを約束する。
近年の研究では、ディープラーニングモデルが自然画像のキャプションに成功していることが示された。
本稿では,自動レポート生成のための変分トピック推論を提案する。
論文 参考訳(メタデータ) (2021-07-15T13:34:38Z) - Chest X-ray Report Generation through Fine-Grained Label Learning [46.352966049776875]
画像から詳細な所見を学習する領域認識自動胸部X線診断レポート生成アルゴリズムを提案する。
また、画像にそのような記述子を割り当てる自動ラベリングアルゴリズムを開発し、発見の粗い記述ときめ細かい記述の両方を認識する新しいディープラーニングネットワークを構築した。
論文 参考訳(メタデータ) (2020-07-27T19:50:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。