論文の概要: Learning Segmentation from Radiology Reports
- arxiv url: http://arxiv.org/abs/2507.05582v1
- Date: Tue, 08 Jul 2025 01:37:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-09 16:34:37.475594
- Title: Learning Segmentation from Radiology Reports
- Title(参考訳): 放射線医学レポートからのセグメンテーションの学習
- Authors: Pedro R. A. S. Bassi, Wenxuan Li, Jieneng Chen, Zheren Zhu, Tianyu Lin, Sergio Decherchi, Andrea Cavalli, Kang Wang, Yang Yang, Alan L. Yuille, Zongwei Zhou,
- Abstract要約: CTスキャンにおける腫瘍のセグメンテーションは、診断、手術、予後のキーとなる。
しかし、セグメンテーションマスクは時間と専門知識を必要とするため、不足している。
本稿では,放射線学報告を腫瘍セグメンテーションAIのボクセル管理に転換するレポートスーパーロス(R-Super)を提案する。
- 参考スコア(独自算出の注目度): 46.073392569125375
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Tumor segmentation in CT scans is key for diagnosis, surgery, and prognosis, yet segmentation masks are scarce because their creation requires time and expertise. Public abdominal CT datasets have from dozens to a couple thousand tumor masks, but hospitals have hundreds of thousands of tumor CTs with radiology reports. Thus, leveraging reports to improve segmentation is key for scaling. In this paper, we propose a report-supervision loss (R-Super) that converts radiology reports into voxel-wise supervision for tumor segmentation AI. We created a dataset with 6,718 CT-Report pairs (from the UCSF Hospital), and merged it with public CT-Mask datasets (from AbdomenAtlas 2.0). We used our R-Super to train with these masks and reports, and strongly improved tumor segmentation in internal and external validation--F1 Score increased by up to 16% with respect to training with masks only. By leveraging readily available radiology reports to supplement scarce segmentation masks, R-Super strongly improves AI performance both when very few training masks are available (e.g., 50), and when many masks were available (e.g., 1.7K). Project: https://github.com/MrGiovanni/R-Super
- Abstract(参考訳): CTスキャンにおける腫瘍のセグメンテーションは診断、手術、予後の鍵であるが、セグメンテーションマスクは時間と専門知識を必要とするため不足している。
一般の腹部CTデータセットには数十から数千の腫瘍マスクがあるが、病院には何十万もの腫瘍CTがあり、放射線学の報告がある。
したがって、レポートを活用してセグメンテーションを改善することが、スケーリングの鍵となる。
本稿では,放射線学報告を腫瘍セグメンテーションAIのボクセル管理に転換するレポートスーパーロス(R-Super)を提案する。
我々は6,718対のCT-Reportデータセット(UCSF病院)を作成し、それをパブリックCT-Maskデータセット(AbdomenAtlas 2.0)とマージした。
我々はR-Superを用いてこれらのマスクとレポートをトレーニングし、内部および外部のバリデーションにおいて腫瘍のセグメンテーションを強く改善した。
少ないセグメンテーションマスクを補うために手軽に利用できる放射線学レポートを活用することで、R-Superは、非常に少ないトレーニングマスク(例:50)と多数のマスク(例:1.7K)の両方でAIパフォーマンスを強く向上する。
プロジェクト:https://github.com/MrGiovanni/R-Super
関連論文リスト
- MAIRA-Seg: Enhancing Radiology Report Generation with Segmentation-Aware Multimodal Large Language Models [36.59952396405939]
放射線学レポート生成のためのセグメンテーション対応MLLMフレームワークMAIRA-Segを紹介する。
我々は、CXRにおける放射線学固有の構造のためのマスク擬似ラベルを得るために、専門家セグメンテーションモデルを訓練する。
我々は,プロンプトのマスク・アウェア・プロンプトを用いて,放射線学のドラフトレポートを作成している。
論文 参考訳(メタデータ) (2024-11-18T08:13:22Z) - RadGenome-Chest CT: A Grounded Vision-Language Dataset for Chest CT Analysis [56.57177181778517]
RadGenome-Chest CTはCT-RATEに基づく大規模3次元胸部CT解釈データセットである。
私たちは、最新の強力なユニバーサルセグメンテーションと大きな言語モデルを活用して、元のデータセットを拡張します。
論文 参考訳(メタデータ) (2024-04-25T17:11:37Z) - Mask-Enhanced Segment Anything Model for Tumor Lesion Semantic Segmentation [48.107348956719775]
Mask-Enhanced SAM (M-SAM) は, 腫瘍の3次元セグメント化に適した革新的なアーキテクチャである。
本稿では,M-SAM内におけるMask-Enhanced Adapter (MEA) を提案する。
我々のM-SAMは高いセグメンテーション精度を達成し、またロバストな一般化を示す。
論文 参考訳(メタデータ) (2024-03-09T13:37:02Z) - Advancing Radiograph Representation Learning with Masked Record Modeling [52.04899592688968]
我々は2つの相補的な目的として自己と報告の補完を定式化し、マスク付きレコードモデリング(MRM)に基づく統一的な枠組みを提案する。
MRMは、知識強化されたセマンティック表現を学ぶためのマルチタスクスキームに従って、マスクされた画像パッチとマスクされたレポートトークンを再構築する。
具体的には、MRMはラベル効率の良い微調整において優れた性能を提供する。
論文 参考訳(メタデータ) (2023-01-30T18:33:32Z) - Generative Adversarial Networks for Weakly Supervised Generation and Evaluation of Brain Tumor Segmentations on MR Images [0.0]
本研究は2次元磁気共鳴画像におけるセグメント異常に対する弱教師付きアプローチを示す。
我々は,癌画像を健全な変種に変換するGAN(Generative Adversarial Network)を訓練する。
非共役な変種は、弱監督的な方法で分割を評価するためにも用いられる。
論文 参考訳(メタデータ) (2022-11-10T00:04:46Z) - A Novel Mask R-CNN Model to Segment Heterogeneous Brain Tumors through
Image Subtraction [0.0]
画像セグメンテーション(画像セグメンテーション)と呼ばれる放射線学者による手法を用いて機械学習モデルに適用し,より優れたセグメンテーションを証明した。
Mask R-CNNは、RSNA肺炎検出チャレンジデータセットで事前トレーニングされたResNetバックボーンであり、Brats 2020 Brain tumorデータセットでモデルをトレーニングすることができる。
DICE係数(F1スコア)、リコール、未タッチテストセットの精度による画像サブトラクションを伴わないモデルと比較することにより、画像サブトラクションの手法がいかにうまく機能するかを確認できる。
論文 参考訳(メタデータ) (2022-04-04T01:45:11Z) - Segmentation of Lung Tumor from CT Images using Deep Supervision [0.8733639720576208]
肺がんは世界中のほとんどの国で死因となっている。
本稿では,LOTUSデータセットに2次元離散ウェーブレット変換(DWT)を適用し,肺腫瘍のセグメンテーションにアプローチする。
論文 参考訳(メタデータ) (2021-11-17T17:50:18Z) - Brain tumor segmentation with self-ensembled, deeply-supervised 3D U-net
neural networks: a BraTS 2020 challenge solution [56.17099252139182]
U-netのようなニューラルネットワークを用いた脳腫瘍セグメント化作業の自動化と標準化を行う。
2つの独立したモデルのアンサンブルが訓練され、それぞれが脳腫瘍のセグメンテーションマップを作成した。
我々の解は、最終試験データセットにおいて、Diceの0.79、0.89、0.84、およびHausdorffの95%の20.4、6.7、19.5mmを達成した。
論文 参考訳(メタデータ) (2020-10-30T14:36:10Z) - Segmentation of Lungs in Chest X-Ray Image Using Generative Adversarial
Networks [0.5249805590164902]
胸部X線(CXR)における肺分画の課題に対するGAN(Generative Adversarial Network)の利用について述べる。
我々の研究では、GANの生成元を訓練し、与えられた入力CXRのセグメンテッドマスクを生成する。
目的は入力されたCXRのマスクを生成することである。
論文 参考訳(メタデータ) (2020-09-12T08:54:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。