論文の概要: Scaling Tumor Segmentation: Best Lessons from Real and Synthetic Data
- arxiv url: http://arxiv.org/abs/2510.14831v1
- Date: Thu, 16 Oct 2025 16:08:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-17 21:15:14.939673
- Title: Scaling Tumor Segmentation: Best Lessons from Real and Synthetic Data
- Title(参考訳): 腫瘍セグメンテーションのスケーリング - 実データと合成データから学ぶ
- Authors: Qi Chen, Xinze Zhou, Chen Liu, Hao Chen, Wenxuan Li, Zekun Jiang, Ziyan Huang, Yuxuan Zhao, Dexin Yu, Junjun He, Yefeng Zheng, Ling Shao, Alan Yuille, Zongwei Zhou,
- Abstract要約: AbdomenAtlas 2.0は10,135個のCTスキャンのデータセットで、6つの臓器に手動で注釈付けされた1ボクセルあたり15,130個の腫瘍例が記録されている。
公開データセットよりも顕著な改善が達成され、DSCテストは+7%、配布外テストは+16%向上した。
- 参考スコア(独自算出の注目度): 62.63749675817477
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: AI for tumor segmentation is limited by the lack of large, voxel-wise annotated datasets, which are hard to create and require medical experts. In our proprietary JHH dataset of 3,000 annotated pancreatic tumor scans, we found that AI performance stopped improving after 1,500 scans. With synthetic data, we reached the same performance using only 500 real scans. This finding suggests that synthetic data can steepen data scaling laws, enabling more efficient model training than real data alone. Motivated by these lessons, we created AbdomenAtlas 2.0--a dataset of 10,135 CT scans with a total of 15,130 tumor instances per-voxel manually annotated in six organs (pancreas, liver, kidney, colon, esophagus, and uterus) and 5,893 control scans. Annotated by 23 expert radiologists, it is several orders of magnitude larger than existing public tumor datasets. While we continue expanding the dataset, the current version of AbdomenAtlas 2.0 already provides a strong foundation--based on lessons from the JHH dataset--for training AI to segment tumors in six organs. It achieves notable improvements over public datasets, with a +7% DSC gain on in-distribution tests and +16% on out-of-distribution tests.
- Abstract(参考訳): 腫瘍のセグメンテーションのためのAIは、大きくてボクセル的に注釈付けされたデータセットが欠如していることによって制限されている。
プロプライエタリなJHHデータセットでは、3000個のアノテート膵腫瘍のスキャンで、1500回のスキャンでAIのパフォーマンスが改善しなくなったことが分かりました。
合成データでは,500個の実スキャンで同じ性能を達成できた。
この発見は、合成データはデータスケーリングの法則を緩めることができ、実際のデータ単独よりも効率的なモデルトレーニングを可能にすることを示唆している。
今回我々は,6臓器(膵臓,肝臓,腎臓,結腸,食道,子宮)と5,893個のコントロールスキャンを手動でアノテートした10,135個のCTデータセットAbdomenAtlas 2.0を開発した。
23人の専門放射線学者によって注釈され、既存の腫瘍のデータセットよりも数桁大きくなっている。
私たちはデータセットを拡大を続けていますが、現在のバージョンのAbdomenAtlas 2.0はすでに、JHHデータセットから学んだことに基づいて、強力な基盤を提供しています。
パブリックデータセットよりも顕著な改善を実現し、ディストリビューションテストでは+7%、アウト・オブ・ディストリビューションテストでは+16%を達成している。
関連論文リスト
- Scaling Artificial Intelligence for Multi-Tumor Early Detection with More Reports, Fewer Masks [59.37427210144734]
医療報告における記述に一致する腫瘍をセグメント化するためにAIを訓練するR-Superを紹介する。
101,654のレポートでトレーニングされたAIモデルは、723のマスクでトレーニングされたモデルに匹敵するパフォーマンスを達成した。
R-Superは脾・胆嚢・前立腺・膀胱・子宮・食道の腫瘍の分画を可能にした。
論文 参考訳(メタデータ) (2025-10-16T15:35:44Z) - RadGPT: Constructing 3D Image-Text Tumor Datasets [13.909446077455323]
今回,AbdomenAtlas 3.0を報告した。
全ての報告はボクセルマスクと組み合わせられ、肝臓、腎臓、膵腫瘍を記述している。
以上の結果より,AIによる報告ではセグメンテーションが腫瘍検出を強く改善することが明らかとなった。
論文 参考訳(メタデータ) (2025-01-08T18:39:10Z) - ScaleMAI: Accelerating the Development of Trusted Datasets and AI Models [46.80682547774335]
我々はAI統合データキュレーションとアノテーションのエージェントであるScaleMAIを提案する。
まず、ScaleMAIは25,362個のCTスキャンを作成した。
第2に、プログレッシブなヒューマン・イン・ザ・ループのイテレーションを通じて、ScaleMAIはFragship AI Modelを提供する。
論文 参考訳(メタデータ) (2025-01-06T22:12:00Z) - Towards a Benchmark for Colorectal Cancer Segmentation in Endorectal Ultrasound Videos: Dataset and Model Development [59.74920439478643]
本稿では,多様なERUSシナリオをカバーする最初のベンチマークデータセットを収集し,注釈付けする。
ERUS-10Kデータセットは77の動画と10,000の高解像度アノテートフレームで構成されています。
本稿では,ASTR (Adaptive Sparse-context TRansformer) という大腸癌セグメンテーションのベンチマークモデルを提案する。
論文 参考訳(メタデータ) (2024-08-19T15:04:42Z) - AbdomenAtlas: A Large-Scale, Detailed-Annotated, & Multi-Center Dataset for Efficient Transfer Learning and Open Algorithmic Benchmarking [16.524596737411006]
腹部CTデータセット(AbdomenAtlasと略す)は, 多様な人口, 地理, 施設にまたがる112の病院の3次元CTボリューム20,460点が最も大きい。
AbamenAtlasは、AIアルゴリズムの助けを借りて10人の放射線学者のチームが注釈を付けた腹部領域の解剖学的構造の、673Kの高品質マスクを提供する。
論文 参考訳(メタデータ) (2024-07-23T17:59:44Z) - Iterative Semi-Supervised Learning for Abdominal Organs and Tumor
Segmentation [4.952008176585512]
FLARE23チャレンジは、部分的データと完全注釈付きデータの両方を備えた大規模なデータセットを提供する。
我々は、FLARE23に対処するために、Semi-Supervised Learning(SSL)と反復的な擬似ラベリングの戦略を用いることを提案する。
本手法では, 臓器の平均DSCスコアは89.63%, 腫瘍は46.07%である。
論文 参考訳(メタデータ) (2023-10-02T12:45:13Z) - Federated Learning Enables Big Data for Rare Cancer Boundary Detection [98.5549882883963]
6大陸にわたる71の医療機関のデータを含む,これまでで最大のフェデレーテッドML研究の結果を報告する。
グリオ芽腫の稀な疾患に対する腫瘍境界自動検出装置を作製した。
当科では, 外科的に標的とした腫瘍の悪性度を高めるために, 33%の改善率を示し, 腫瘍全体に対する23%の改善率を示した。
論文 参考訳(メタデータ) (2022-04-22T17:27:00Z) - Brain tumor segmentation with self-ensembled, deeply-supervised 3D U-net
neural networks: a BraTS 2020 challenge solution [56.17099252139182]
U-netのようなニューラルネットワークを用いた脳腫瘍セグメント化作業の自動化と標準化を行う。
2つの独立したモデルのアンサンブルが訓練され、それぞれが脳腫瘍のセグメンテーションマップを作成した。
我々の解は、最終試験データセットにおいて、Diceの0.79、0.89、0.84、およびHausdorffの95%の20.4、6.7、19.5mmを達成した。
論文 参考訳(メタデータ) (2020-10-30T14:36:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。