論文の概要: BTReport: A Framework for Brain Tumor Radiology Report Generation with Clinically Relevant Features
- arxiv url: http://arxiv.org/abs/2602.16006v1
- Date: Tue, 17 Feb 2026 20:55:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-19 15:58:30.434984
- Title: BTReport: A Framework for Brain Tumor Radiology Report Generation with Clinically Relevant Features
- Title(参考訳): BTReport: 臨床的に重要な特徴を持つ脳腫瘍放射線診断のためのフレームワーク
- Authors: Juampablo E. Heras Rivera, Dickson T. Chen, Tianyi Ren, Daniel K. Low, Asma Ben Abacha, Alberto Santamaria-Pang, Mehmet Kurt,
- Abstract要約: BTReportは、決定論的に抽出された画像特徴を用いて自然言語ラジオロジーレポートを構築するオープンソースのフレームワークである。
報告生成に使用する特徴は, 生存率やIDH変異状況など, 重要な臨床結果の予測に有用であることを示す。
最後にBTReport-BraTSについて述べる。このデータセットは、BTReportで生成された合成放射線学レポートと、BraTSイメージングを併用したデータセットである。
- 参考スコア(独自算出の注目度): 2.5111131141274328
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advances in radiology report generation (RRG) have been driven by large paired image-text datasets; however, progress in neuro-oncology has been limited due to a lack of open paired image-report datasets. Here, we introduce BTReport, an open-source framework for brain tumor RRG that constructs natural language radiology reports using deterministically extracted imaging features. Unlike existing approaches that rely on large general-purpose or fine-tuned vision-language models for both image interpretation and report composition, BTReport performs deterministic feature extraction for image analysis and uses large language models only for syntactic structuring and narrative formatting. By separating RRG into a deterministic feature extraction step and a report generation step, the generated reports are completely interpretable and less prone to hallucinations. We show that the features used for report generation are predictive of key clinical outcomes, including survival and IDH mutation status, and reports generated by BTReport are more closely aligned with reference clinical reports than existing baselines for RRG. Finally, we introduce BTReport-BraTS, a companion dataset that augments BraTS imaging with synthetically generated radiology reports produced with BTReport. Code for this project can be found at https://github.com/KurtLabUW/BTReport.
- Abstract(参考訳): 放射線学報告生成(RRG)の最近の進歩は、大きなペア画像テキストデータセットによって推進されているが、オープンなペア画像レポートデータセットが欠如しているため、神経腫瘍学の進歩は限られている。
本稿では,脳腫瘍診断のためのオープンソースのフレームワークであるBTReportを紹介する。
BTReportは、画像解釈とレポート合成の両方に大規模な汎用的あるいは微調整された視覚言語モデルに依存している既存のアプローチとは異なり、画像解析のために決定論的特徴抽出を行い、構文的構造化と物語のフォーマッティングにのみ大きな言語モデルを使用する。
RRGを決定論的特徴抽出ステップとレポート生成ステップとに分離することにより、生成されたレポートは完全に解釈可能であり、幻覚の傾向が低い。
報告生成に使用する特徴は, 生存率やIDHの変異状況などの重要な臨床結果を予測すること, BTReportが作成した報告は, 既存のRRGのベースラインよりも, 基準臨床報告と密接に一致していることが示唆された。
最後にBTReport-BraTSについて述べる。このデータセットは、BTReportで生成された合成放射線学レポートと、BraTSイメージングを併用したデータセットである。
このプロジェクトのコードはhttps://github.com/KurtLabUW/BTReportにある。
関連論文リスト
- Activating Associative Disease-Aware Vision Token Memory for LLM-Based X-ray Report Generation [54.631356899598956]
本稿では,専門医が医療報告を書く過程を効果的に模倣する,新しい連想型記憶強調X線レポート生成モデルを提案する。
我々は,病気関連トークンのメモリアソシエーションを確立するために,ビジュアルホップフィールドネットワークを使用し,レポートホップフィールドネットワークを用いてレポートメモリ情報を検索する。
論文 参考訳(メタデータ) (2025-01-07T01:19:48Z) - X-ray Made Simple: Lay Radiology Report Generation and Robust Evaluation [21.425178466284017]
ラジオロジーレポート生成(RRG)はマルチモーダル生成モデルの開発で大きく進歩している。
既存の語彙ベースのメトリクスで高いパフォーマンスを持つRRGは、単なるミラージュです - モデルはレポートのテンプレートを学習することでのみ、高いBLEUを得ることができます。
本稿では,BLEUの膨らませた数を軽減し,より堅牢な評価を行うセマンティクスに基づく評価手法を提案する。
論文 参考訳(メタデータ) (2024-06-25T19:52:01Z) - MedCycle: Unpaired Medical Report Generation via Cycle-Consistency [11.190146577567548]
一貫性のあるラベリングスキーマを必要としない革新的なアプローチを導入する。
このアプローチは、画像埋め込みをレポート埋め込みに変換するサイクル一貫性マッピング関数に基づいている。
胸部X線所見の発生は、最先端の結果よりも優れており、言語と臨床の両方の指標の改善が示されている。
論文 参考訳(メタデータ) (2024-03-20T09:40:11Z) - RaDialog: A Large Vision-Language Model for Radiology Report Generation and Conversational Assistance [49.04445246682948]
会話型AIツールは、所定の医療画像に対して臨床的に正しい放射線学レポートを生成し、議論することができる。
RaDialogは、ラジオロジーレポート生成と対話ダイアログのための、初めて徹底的に評価され、公開された大きな視覚言語モデルである。
本手法は,報告生成における最先端の臨床的正確性を実現し,報告の修正や質問への回答などのインタラクティブなタスクにおいて,印象的な能力を示す。
論文 参考訳(メタデータ) (2023-11-30T16:28:40Z) - Radiology Report Generation Using Transformers Conditioned with
Non-imaging Data [55.17268696112258]
本稿では,胸部X線画像と関連する患者の人口統計情報を統合したマルチモーダルトランスフォーマーネットワークを提案する。
提案ネットワークは、畳み込みニューラルネットワークを用いて、CXRから視覚的特徴を抽出し、その視覚的特徴と患者の人口統計情報のセマンティックテキスト埋め込みを組み合わせたトランスフォーマーベースのエンコーダデコーダネットワークである。
論文 参考訳(メタデータ) (2023-11-18T14:52:26Z) - Multimodal Image-Text Matching Improves Retrieval-based Chest X-Ray
Report Generation [3.6664023341224827]
X-REM (Contrastive X-Ray Report Match) は、X-REM (X-REM) という新しい検索方式の放射線学レポート生成モジュールである。
X-REMは、胸部X線画像の類似度を測定するための画像テキストマッチングスコアと、レポート検索のための放射線診断レポートを使用する。
論文 参考訳(メタデータ) (2023-03-29T04:00:47Z) - Cross-Modal Causal Intervention for Medical Report Generation [107.76649943399168]
放射線医学報告生成(RRG)は, コンピュータ支援診断と薬剤指導に不可欠である。
視覚言語的バイアスによる急激な相関により、正確な病変記述の生成は依然として困難である。
我々はCrossModal Causal Representation Learning (CMCRL)という2段階のフレームワークを提案する。
IU-XrayとMIMIC-CXRの実験により、我々のCMCRLパイプラインは最先端の手法よりも大幅に優れていることが示された。
論文 参考訳(メタデータ) (2023-03-16T07:23:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。