論文の概要: Scaling Artificial Intelligence for Multi-Tumor Early Detection with More Reports, Fewer Masks
- arxiv url: http://arxiv.org/abs/2510.14803v1
- Date: Thu, 16 Oct 2025 15:35:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-17 21:15:14.923831
- Title: Scaling Artificial Intelligence for Multi-Tumor Early Detection with More Reports, Fewer Masks
- Title(参考訳): マルチモーム早期検出のための多面体マスクによる人工知能のスケーリング
- Authors: Pedro R. A. S. Bassi, Xinze Zhou, Wenxuan Li, Szymon Płotka, Jieneng Chen, Qi Chen, Zheren Zhu, Jakub Prządo, Ibrahim E. Hamacı, Sezgin Er, Yuhan Wang, Ashwin Kumar, Bjoern Menze, Jarosław B. Ćwikła, Yuyin Zhou, Akshay S. Chaudhari, Curtis P. Langlotz, Sergio Decherchi, Andrea Cavalli, Kang Wang, Yang Yang, Alan L. Yuille, Zongwei Zhou,
- Abstract要約: 医療報告における記述に一致する腫瘍をセグメント化するためにAIを訓練するR-Superを紹介する。
101,654のレポートでトレーニングされたAIモデルは、723のマスクでトレーニングされたモデルに匹敵するパフォーマンスを達成した。
R-Superは脾・胆嚢・前立腺・膀胱・子宮・食道の腫瘍の分画を可能にした。
- 参考スコア(独自算出の注目度): 59.37427210144734
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Early tumor detection save lives. Each year, more than 300 million computed tomography (CT) scans are performed worldwide, offering a vast opportunity for effective cancer screening. However, detecting small or early-stage tumors on these CT scans remains challenging, even for experts. Artificial intelligence (AI) models can assist by highlighting suspicious regions, but training such models typically requires extensive tumor masks--detailed, voxel-wise outlines of tumors manually drawn by radiologists. Drawing these masks is costly, requiring years of effort and millions of dollars. In contrast, nearly every CT scan in clinical practice is already accompanied by medical reports describing the tumor's size, number, appearance, and sometimes, pathology results--information that is rich, abundant, and often underutilized for AI training. We introduce R-Super, which trains AI to segment tumors that match their descriptions in medical reports. This approach scales AI training with large collections of readily available medical reports, substantially reducing the need for manually drawn tumor masks. When trained on 101,654 reports, AI models achieved performance comparable to those trained on 723 masks. Combining reports and masks further improved sensitivity by +13% and specificity by +8%, surpassing radiologists in detecting five of the seven tumor types. Notably, R-Super enabled segmentation of tumors in the spleen, gallbladder, prostate, bladder, uterus, and esophagus, for which no public masks or AI models previously existed. This study challenges the long-held belief that large-scale, labor-intensive tumor mask creation is indispensable, establishing a scalable and accessible path toward early detection across diverse tumor types. We plan to release our trained models, code, and dataset at https://github.com/MrGiovanni/R-Super
- Abstract(参考訳): 早期の腫瘍検出は命を救う。
毎年3億件以上のCTスキャンが世界中で行われており、がん検診を効果的に行う絶好の機会となっている。
しかし、これらのCTスキャンで小または早期の腫瘍を検出することは、専門家にとっても困難である。
人工知能(AI)モデルは、疑わしい領域をハイライトすることで支援できるが、そのようなモデルの訓練には、通常は広範囲の腫瘍マスクを必要とする。
これらのマスクを引くのは非常にコストがかかり、何年もの労力と数百万ドルが必要になります。
対照的に、臨床実践におけるほぼすべてのCTスキャンには、腫瘍のサイズ、数、外観、時には病理結果などを記述する医療報告が伴っている。
R-Superは、医療報告で記述に一致する腫瘍をセグメント化するようAIを訓練する。
このアプローチは、手書きの腫瘍マスクの必要性を大幅に減らし、利用可能な医療報告を大量に集めてAIトレーニングをスケールする。
101,654のレポートでトレーニングされたAIモデルは、723のマスクでトレーニングされたモデルに匹敵するパフォーマンスを達成した。
報告とマスクを組み合わせることで、感度は+13%、特異度は+8%向上し、放射線技師は7種類の腫瘍の5つを検出できた。
特に、R-Superは、以前に公衆マスクやAIモデルが存在しなかった脾、胆嚢、前立腺、膀胱、子宮、食道の腫瘍のセグメンテーションを可能にした。
この研究は、大規模で労働集約的な腫瘍マスク作成が不可欠であるという長年の信念に挑戦し、多様な腫瘍タイプをまたいだ早期発見に向けて、スケーラブルでアクセス可能な経路を確立する。
トレーニング済みのモデル、コード、データセットをhttps://github.com/MrGiovanni/R-Superでリリースする予定です。
関連論文リスト
- Tumor Synthesis conditioned on Radiomics [1.3521165953335823]
放射能特性を生成条件として利用する腫瘍発生モデルを提案する。
本モデルでは,ガンモデルを用いて腫瘍マスクを生成,拡散モデルを用いて放射線学的特徴に基づく腫瘍テクスチャを生成する。
本手法では, 任意の位置において, サイズ, 形状, テクスチャなど, ユーザが特定した放射線学的特徴に応じて, 腫瘍画像を生成することができる。
論文 参考訳(メタデータ) (2025-09-29T02:04:12Z) - Learning Segmentation from Radiology Reports [46.073392569125375]
CTスキャンにおける腫瘍のセグメンテーションは、診断、手術、予後のキーとなる。
しかし、セグメンテーションマスクは時間と専門知識を必要とするため、不足している。
本稿では,放射線学報告を腫瘍セグメンテーションAIのボクセル管理に転換するレポートスーパーロス(R-Super)を提案する。
論文 参考訳(メタデータ) (2025-07-08T01:37:34Z) - From Pixel to Cancer: Cellular Automata in Computed Tomography [12.524228287083888]
腫瘍合成は、医療画像に人工腫瘍を作ろうとする。
本稿では腫瘍発生をシミュレートする汎用ルールのセットを確立する。
我々は,腫瘍状態をCT画像に統合し,異なる臓器にまたがる合成腫瘍を生成する。
論文 参考訳(メタデータ) (2024-03-11T06:46:31Z) - Towards Generalizable Tumor Synthesis [48.45704270448412]
腫瘍合成は、医用画像における人工腫瘍の作成を可能にし、腫瘍の検出とセグメンテーションのためのAIモデルのトレーニングを容易にする。
本論文は, 臨界観察を生かして, 一般化可能な腫瘍合成に向けて進歩的な一歩を踏み出した。
私たちは、Diffusion Modelsのような生成AIモデルが、単一の臓器から限られた数の腫瘍例を訓練しても、様々な臓器に一般化された現実的な腫瘍を作成できることを確認した。
論文 参考訳(メタデータ) (2024-02-29T18:57:39Z) - Early Detection and Localization of Pancreatic Cancer by Label-Free
Tumor Synthesis [11.86190788916592]
膵癌の早期発見と局所化は、患者の5年間の生存率を8.5%から20%に引き上げることができる。
トレーニングAIモデルには、多数の注釈付きサンプルが必要だが、早期の腫瘍を取得するCTスキャンが利用可能であることには制約がある。
手動のアノテーションを必要とせず, 膵内小膵腫瘍の膨大な例を合成できる腫瘍合成法を開発した。
論文 参考訳(メタデータ) (2023-08-06T03:37:34Z) - CancerUniT: Towards a Single Unified Model for Effective Detection,
Segmentation, and Diagnosis of Eight Major Cancers Using a Large Collection
of CT Scans [45.83431075462771]
ヒトの読者や放射線医は、臨床実践において、全身多臓器多臓器の検出と診断を日常的に行う。
ほとんどの医療用AIシステムは、いくつかの疾患のリストの狭い単一の臓器に焦点を当てて構築されている。
CancerUniT は、マルチ腫瘍予測の出力を持つクエリベースの Mask Transformer モデルである。
論文 参考訳(メタデータ) (2023-01-28T20:09:34Z) - Stan: Small tumor-aware network for breast ultrasound image segmentation [68.8204255655161]
本研究では,小腫瘍認識ネットワーク(Small tumor-Aware Network,STAN)と呼ばれる新しいディープラーニングアーキテクチャを提案する。
提案手法は, 乳腺腫瘍の分節化における最先端のアプローチよりも優れていた。
論文 参考訳(メタデータ) (2020-02-03T22:25:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。