論文の概要: Style-Aware Radiology Report Generation with RadGraph and Few-Shot
Prompting
- arxiv url: http://arxiv.org/abs/2310.17811v2
- Date: Tue, 31 Oct 2023 17:07:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-01 22:04:09.831293
- Title: Style-Aware Radiology Report Generation with RadGraph and Few-Shot
Prompting
- Title(参考訳): radgraph と no-shot プロンプトを用いたスタイルアウェアラジオロジーレポート生成
- Authors: Benjamin Yan, Ruochen Liu, David E. Kuo, Subathra Adithan, Eduardo
Pontes Reis, Stephen Kwak, Vasantha Kumar Venugopal, Chloe P. O'Connell,
Agustina Saenz, Pranav Rajpurkar, Michael Moor
- Abstract要約: 放射線学レポート生成のための2段階のアプローチを提案する。
まず,画像から内容を取り出す。次に,抽出した内容を,特定の放射線技師のスタイルにマッチしたレポートに言語化する。
- 参考スコア(独自算出の注目度): 5.596515201054671
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Automatically generated reports from medical images promise to improve the
workflow of radiologists. Existing methods consider an image-to-report modeling
task by directly generating a fully-fledged report from an image. However, this
conflates the content of the report (e.g., findings and their attributes) with
its style (e.g., format and choice of words), which can lead to clinically
inaccurate reports. To address this, we propose a two-step approach for
radiology report generation. First, we extract the content from an image; then,
we verbalize the extracted content into a report that matches the style of a
specific radiologist. For this, we leverage RadGraph -- a graph representation
of reports -- together with large language models (LLMs). In our quantitative
evaluations, we find that our approach leads to beneficial performance. Our
human evaluation with clinical raters highlights that the AI-generated reports
are indistinguishably tailored to the style of individual radiologist despite
leveraging only a few examples as context.
- Abstract(参考訳): 医療画像から自動生成された報告は、放射線技師のワークフローを改善することを約束する。
既存の手法では、画像から本格的なレポートを直接生成することにより、画像からレポートへのモデリングタスクを考える。
しかし、これはレポートの内容(例:発見とその属性)をそのスタイル(例:単語の形式と選択)と混同し、臨床的に不正確な報告につながる可能性がある。
そこで本稿では,放射線レポート生成のための2段階アプローチを提案する。
まず,画像から抽出した内容から抽出した内容を,特定の放射線科医のスタイルにマッチしたレポートに言語化する。
そのため、レポートのグラフ表現であるRadGraphと、大きな言語モデル(LLM)を活用しています。
定量的評価では、我々のアプローチが有益なパフォーマンスをもたらすことが分かりました。
臨床ティッカーを用いた人間の評価では、AIが生成した報告は、文脈としてほんの数例しか活用していないにもかかわらず、個々の放射線科医のスタイルに相応しいことが強調されている。
関連論文リスト
- MedRAT: Unpaired Medical Report Generation via Auxiliary Tasks [11.190146577567548]
本稿では、2つの異なるデータセットで利用可能な情報を活用する新しいモデルを提案する。
我々のモデルはMedRATと呼ばれ、従来の最先端の手法を超越している。
論文 参考訳(メタデータ) (2024-07-04T13:31:47Z) - MedCycle: Unpaired Medical Report Generation via Cycle-Consistency [11.190146577567548]
一貫性のあるラベリングスキーマを必要としない革新的なアプローチを導入する。
このアプローチは、画像埋め込みをレポート埋め込みに変換するサイクル一貫性マッピング関数に基づいている。
胸部X線所見の発生は、最先端の結果よりも優れており、言語と臨床の両方の指標の改善が示されている。
論文 参考訳(メタデータ) (2024-03-20T09:40:11Z) - RaDialog: A Large Vision-Language Model for Radiology Report Generation
and Conversational Assistance [53.20640629352422]
会話型AIツールは、所定の医療画像に対して臨床的に正しい放射線学レポートを生成し、議論することができる。
RaDialogは、ラジオロジーレポート生成と対話ダイアログのための、初めて徹底的に評価され、公開された大きな視覚言語モデルである。
本手法は,報告生成における最先端の臨床的正確性を実現し,報告の修正や質問への回答などのインタラクティブなタスクにおいて,印象的な能力を示す。
論文 参考訳(メタデータ) (2023-11-30T16:28:40Z) - Radiology Report Generation Using Transformers Conditioned with
Non-imaging Data [55.17268696112258]
本稿では,胸部X線画像と関連する患者の人口統計情報を統合したマルチモーダルトランスフォーマーネットワークを提案する。
提案ネットワークは、畳み込みニューラルネットワークを用いて、CXRから視覚的特徴を抽出し、その視覚的特徴と患者の人口統計情報のセマンティックテキスト埋め込みを組み合わせたトランスフォーマーベースのエンコーダデコーダネットワークである。
論文 参考訳(メタデータ) (2023-11-18T14:52:26Z) - Beyond Images: An Integrative Multi-modal Approach to Chest X-Ray Report
Generation [47.250147322130545]
画像からテキストまでの放射線学レポート生成は,医療画像の発見を記述した放射線学レポートを自動生成することを目的としている。
既存の方法の多くは画像データのみに焦点をあてており、他の患者情報は放射線科医に公開されていない。
胸部X線レポートを生成するための多モードディープニューラルネットワークフレームワークを,非構造的臨床ノートとともにバイタルサインや症状などの構造化された患者データを統合することで提案する。
論文 参考訳(メタデータ) (2023-11-18T14:37:53Z) - Multimodal Image-Text Matching Improves Retrieval-based Chest X-Ray
Report Generation [3.6664023341224827]
X-REM (Contrastive X-Ray Report Match) は、X-REM (X-REM) という新しい検索方式の放射線学レポート生成モジュールである。
X-REMは、胸部X線画像の類似度を測定するための画像テキストマッチングスコアと、レポート検索のための放射線診断レポートを使用する。
論文 参考訳(メタデータ) (2023-03-29T04:00:47Z) - Dynamic Graph Enhanced Contrastive Learning for Chest X-ray Report
Generation [92.73584302508907]
コントラスト学習を用いた医療レポート作成を支援するために,動的構造とノードを持つ知識グラフを提案する。
詳しくは、グラフの基本構造は一般知識から事前構築される。
各イメージ機能は、レポート生成のためにデコーダモジュールに入力する前に、独自の更新グラフに統合される。
論文 参考訳(メタデータ) (2023-03-18T03:53:43Z) - Knowledge Graph Construction and Its Application in Automatic Radiology
Report Generation from Radiologist's Dictation [22.894248859405767]
本稿では,情報抽出(IE)やドメイン固有知識グラフ(KG)といったNLP技術を用いて,放射線技師の指示から放射線学レポートを自動的に生成する手法について述べる。
本研究では,ルールベース,パターンベース,辞書ベースの手法と語彙意味的特徴を組み合わせた情報抽出パイプラインを構築し,エンティティと関係を抽出する。
意味的類似度指標を用いて評価した病理的記述を生成し,金の標準的な病理学的記述と97%の類似性を示した。
論文 参考訳(メタデータ) (2022-06-13T16:46:54Z) - Variational Topic Inference for Chest X-Ray Report Generation [102.04931207504173]
医療画像のレポート生成は、作業負荷を減らし、臨床実習における診断を支援することを約束する。
近年の研究では、ディープラーニングモデルが自然画像のキャプションに成功していることが示された。
本稿では,自動レポート生成のための変分トピック推論を提案する。
論文 参考訳(メタデータ) (2021-07-15T13:34:38Z) - Auxiliary Signal-Guided Knowledge Encoder-Decoder for Medical Report
Generation [107.3538598876467]
放射線技師の動作パターンを模倣する補助信号誘導知識デコーダ(ASGK)を提案する。
ASGKは、内的特徴融合と外部医療言語情報を統合して、医療知識の伝達と学習をガイドする。
論文 参考訳(メタデータ) (2020-06-06T01:00:15Z) - When Radiology Report Generation Meets Knowledge Graph [17.59749125131158]
放射線画像診断では, 陽性疾患キーワードの精度が重要である。
報告品質の評価は、疾患キーワードとその関連属性のマッチングをより重視すべきである。
我々は,同じ合成グラフの助けを借りて,放射線画像レポートのための新しい評価基準を提案する。
論文 参考訳(メタデータ) (2020-02-19T16:39:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。