論文の概要: Few-shot Structured Radiology Report Generation Using Natural Language
Prompts
- arxiv url: http://arxiv.org/abs/2203.15723v1
- Date: Tue, 29 Mar 2022 16:31:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-30 15:37:20.952632
- Title: Few-shot Structured Radiology Report Generation Using Natural Language
Prompts
- Title(参考訳): 自然言語プロンプトを用いた構造ラジオロジーレポートの作成
- Authors: Matthias Keicher, Kamilia Mullakaeva, Tobias Czempiel, Kristina Mach,
Ashkan Khakzar, Nassir Navab
- Abstract要約: 自然言語処理を用いたフリーテキストレポートの臨床精度の定量化の有効性は困難である。
構造化レポートは一貫性を確保し、品質保証ツールとしてより簡単に使用できる。
本報告では, 臨床所見と解剖学的位置の予測方法について述べる。
- 参考スコア(独自算出の注目度): 37.15474283789249
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Chest radiograph reporting is time-consuming, and numerous solutions to
automate this process have been proposed. Due to the complexity of medical
information, the variety of writing styles, and free text being prone to typos
and inconsistencies, the efficacy of quantifying the clinical accuracy of
free-text reports using natural language processing measures is challenging. On
the other hand, structured reports ensure consistency and can more easily be
used as a quality assurance tool. To accomplish this, we present a strategy for
predicting clinical observations and their anatomical location that is easily
extensible to other structured findings. First, we train a contrastive
language-image model using related chest radiographs and free-text radiological
reports. Then, we create textual prompts for each structured finding and
optimize a classifier for predicting clinical findings and their associations
within the medical image. The results indicate that even when only a few
image-level annotations are used for training, the method can localize
pathologies in chest radiographs and generate structured reports.
- Abstract(参考訳): 胸部X線撮影は時間がかかり、このプロセスを自動化するための多くのソリューションが提案されている。
医療情報の複雑さ, 書体の種類, フリーテキストがタイプミスや不整合しやすいため, 自然言語処理によるフリーテキストレポートの臨床的精度の定量化が困難である。
一方、構造化レポートは一貫性を確保し、品質保証ツールとしてより簡単に使用できる。
そこで本研究では,他の組織的所見に対して容易に拡張可能な臨床観察とその解剖学的位置を予測する戦略を提案する。
まず、関連する胸部X線写真と自由テキストラジオグラフィーレポートを用いて、コントラスト言語画像モデルを訓練する。
次に、各構造的発見のためのテキストプロンプトを作成し、医療画像内の臨床所見とその関連を予測するための分類器を最適化する。
以上の結果から, 胸部X線写真に病理像を局在させ, 構造化された報告を生成できる可能性が示唆された。
関連論文リスト
- RaTEScore: A Metric for Radiology Report Generation [59.37561810438641]
本稿では,Radiological Report (Text) Evaluation (RaTEScore) として,新しい実体認識尺度を提案する。
RaTEScoreは、診断結果や解剖学的詳細などの重要な医療機関を強調し、複雑な医学的同義語に対して堅牢であり、否定表現に敏感である。
我々の評価は、RaTEScoreが既存の指標よりも人間の嗜好とより密接に一致していることを示し、確立された公開ベンチマークと、新たに提案したRaTE-Evalベンチマークの両方で検証した。
論文 参考訳(メタデータ) (2024-06-24T17:49:28Z) - Structural Entities Extraction and Patient Indications Incorporation for Chest X-ray Report Generation [10.46031380503486]
胸部X線レポート生成のための新しい方法である textbfStructural textbfEntities 抽出法と textbfIncorporation (SEI) を考案した。
我々は、レポートにおけるプレゼンテーションスタイルの語彙を排除するために、構造エンティティ抽出(SEE)アプローチを採用する。
我々は,X線画像,類似の歴史的症例,患者固有の指標からの情報を統合するクロスモーダル融合ネットワークを提案する。
論文 参考訳(メタデータ) (2024-05-23T01:29:47Z) - Prompt-Guided Generation of Structured Chest X-Ray Report Using a Pre-trained LLM [5.766695041882696]
事前学習型大言語モデル(LLM)を用いた胸部X線構造レポート作成のためのプロンプト誘導手法を提案する。
まず,胸部X線で解剖学的領域を同定し,重要な視覚要素に焦点を絞った文を生成する。
また,検出された解剖学を,解剖学的理解を LLM に伝達するテキストプロンプトに変換する。
論文 参考訳(メタデータ) (2024-04-17T09:45:43Z) - Beyond Images: An Integrative Multi-modal Approach to Chest X-Ray Report
Generation [47.250147322130545]
画像からテキストまでの放射線学レポート生成は,医療画像の発見を記述した放射線学レポートを自動生成することを目的としている。
既存の方法の多くは画像データのみに焦点をあてており、他の患者情報は放射線科医に公開されていない。
胸部X線レポートを生成するための多モードディープニューラルネットワークフレームワークを,非構造的臨床ノートとともにバイタルサインや症状などの構造化された患者データを統合することで提案する。
論文 参考訳(メタデータ) (2023-11-18T14:37:53Z) - Controllable Chest X-Ray Report Generation from Longitudinal
Representations [13.151444796296868]
レポートをスピードアップする1つの戦略は、自動レポートシステムを統合することである。
自動放射線診断への従来のアプローチは、入力として事前の研究を提供していないのが一般的である。
筆者らは,(1) 縦断学習 -- マルチモーダルレポート生成モデルに提供可能な関節長手表現に,現在のスキャン情報と先行スキャン情報を整合し,活用する手法を提案する。(2) 文解剖学的ドロップアウト -- レポート生成モデルを用いて,入力として与えられた解剖学的領域のサブセットに対応する元のレポートからのみ文を予測する訓練戦略。
論文 参考訳(メタデータ) (2023-10-09T17:22:58Z) - Medical Image Captioning via Generative Pretrained Transformers [57.308920993032274]
我々は、Show-Attend-Tell と GPT-3 という2つの言語モデルを組み合わせて、包括的で記述的な放射線学記録を生成する。
提案モデルは、Open-I、MIMIC-CXR、汎用MS-COCOの2つの医療データセットで検証される。
論文 参考訳(メタデータ) (2022-09-28T10:27:10Z) - Breaking with Fixed Set Pathology Recognition through Report-Guided
Contrastive Training [23.506879497561712]
我々は、非構造化医療報告から直接概念を学ぶために、対照的なグローバルローカルなデュアルエンコーダアーキテクチャを採用している。
疾患分類のための大規模胸部X線データセットMIMIC-CXR,CheXpert,ChestX-Ray14について検討した。
論文 参考訳(メタデータ) (2022-05-14T21:44:05Z) - Weakly Supervised Contrastive Learning for Chest X-Ray Report Generation [3.3978173451092437]
放射線画像から記述テキストを自動的に生成することを目的とした放射線学レポート生成。
典型的な設定は、エンコーダとデコーダのモデルを、クロスエントロピー損失のあるイメージレポートペアでトレーニングする。
本稿では,医療報告生成におけるコントラスト損失の弱化について提案する。
論文 参考訳(メタデータ) (2021-09-25T00:06:23Z) - Variational Topic Inference for Chest X-Ray Report Generation [102.04931207504173]
医療画像のレポート生成は、作業負荷を減らし、臨床実習における診断を支援することを約束する。
近年の研究では、ディープラーニングモデルが自然画像のキャプションに成功していることが示された。
本稿では,自動レポート生成のための変分トピック推論を提案する。
論文 参考訳(メタデータ) (2021-07-15T13:34:38Z) - Chest X-ray Report Generation through Fine-Grained Label Learning [46.352966049776875]
画像から詳細な所見を学習する領域認識自動胸部X線診断レポート生成アルゴリズムを提案する。
また、画像にそのような記述子を割り当てる自動ラベリングアルゴリズムを開発し、発見の粗い記述ときめ細かい記述の両方を認識する新しいディープラーニングネットワークを構築した。
論文 参考訳(メタデータ) (2020-07-27T19:50:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。