論文の概要: From Pixel to Cancer: Cellular Automata in Computed Tomography
- arxiv url: http://arxiv.org/abs/2403.06459v1
- Date: Mon, 11 Mar 2024 06:46:31 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-12 20:14:02.562463
- Title: From Pixel to Cancer: Cellular Automata in Computed Tomography
- Title(参考訳): Pixelから癌へ:CTにおけるセルオートマタ
- Authors: Yuxiang Lai, Xiaoxi Chen, Angtian Wang, Alan Yuille, Zongwei Zhou
- Abstract要約: 腫瘍合成は、医療画像に人工腫瘍を作ろうとする。
本稿では腫瘍発生をシミュレートする汎用ルールのセットを確立する。
次に,腫瘍状態をCT画像に統合し,異なる臓器にまたがる合成腫瘍を作製する。
- 参考スコア(独自算出の注目度): 13.436567646191985
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: AI for cancer detection encounters the bottleneck of data scarcity,
annotation difficulty, and low prevalence of early tumors. Tumor synthesis
seeks to create artificial tumors in medical images, which can greatly
diversify the data and annotations for AI training. However, current tumor
synthesis approaches are not applicable across different organs due to their
need for specific expertise and design. This paper establishes a set of generic
rules to simulate tumor development. Each cell (pixel) is initially assigned a
state between zero and ten to represent the tumor population, and a tumor can
be developed based on three rules to describe the process of growth, invasion,
and death. We apply these three generic rules to simulate tumor
development--from pixel to cancer--using cellular automata. We then integrate
the tumor state into the original computed tomography (CT) images to generate
synthetic tumors across different organs. This tumor synthesis approach allows
for sampling tumors at multiple stages and analyzing tumor-organ interaction.
Clinically, a reader study involving three expert radiologists reveals that the
synthetic tumors and their developing trajectories are convincingly realistic.
Technically, we generate tumors at varied stages in 9,262 raw, unlabeled CT
images sourced from 68 hospitals worldwide. The performance in segmenting
tumors in the liver, pancreas, and kidneys exceeds prevailing literature
benchmarks, underlining the immense potential of tumor synthesis, especially
for earlier cancer detection. The code and models are available at
https://github.com/MrGiovanni/Pixel2Cancer
- Abstract(参考訳): がん検出のためのAIは、データの不足、アノテーションの難しさ、早期腫瘍の頻度の低いボトルネックに遭遇する。
腫瘍合成は、医療画像に人工腫瘍を作り、aiトレーニングのためのデータとアノテーションを大幅に多様化することを目指している。
しかしながら、現在の腫瘍合成アプローチは、特定の専門知識と設計を必要とするため、異なる臓器に適用できない。
本稿では腫瘍発生をシミュレートする汎用ルールのセットを確立する。
各細胞(ピクセル)は最初、腫瘍の集団を表すために0から10の状態を割り当てられ、成長、浸潤、死の過程を記述する3つの規則に基づいて腫瘍を発生させることができる。
細胞オートマトンを用いて,pixelから癌への腫瘍進展をシミュレートするために,これら3つの汎用ルールを適用した。
次に,腫瘍状態をCT画像に統合し,異なる臓器にわたって合成腫瘍を生成する。
この腫瘍合成アプローチにより、複数の段階の腫瘍をサンプリングし、腫瘍とホルモンの相互作用を分析することができる。
臨床的に、専門家3人の放射線技師による読者調査により、合成腫瘍とその発達過程は説得力強く現実的であることが判明した。
臨床的には, 世界中の68の病院から採取した, 9,262個の未表示CT画像から, 様々な段階の腫瘍を発生させる。
肝臓、膵臓、腎臓の分節性腫瘍のパフォーマンスは、従来の文献上のベンチマークを上回り、腫瘍合成の膨大な可能性、特に早期のがん検出の可能性を強調している。
コードとモデルはhttps://github.com/mrgiovanni/pixel2cancerで入手できる。
関連論文リスト
- Analyzing Tumors by Synthesis [11.942932753828854]
腫瘍合成は、腫瘍検出とセグメンテーションのためのAIトレーニングを支援するために、医療画像に多数の腫瘍例を生成する。
この章では、実データと合成データに関するAI開発についてレビューする。
ケーススタディによると、合成腫瘍で訓練されたAIは、実際のデータで訓練されたAIに匹敵する、あるいはそれ以上のパフォーマンスを達成することができる。
論文 参考訳(メタデータ) (2024-09-09T19:51:44Z) - FreeTumor: Advance Tumor Segmentation via Large-Scale Tumor Synthesis [7.064154713491736]
FreeTumorは、堅牢な腫瘍合成とセグメンテーションのための堅牢なソリューションである。
合成トレーニングでは、敵のトレーニング戦略を使用して、大規模で多種多様なラベル付きデータを活用している。
FreeTumorでは,腫瘍セグメント化におけるデータスケーリングの法則について,データセットを1万1千件までスケールアップすることで検討する。
論文 参考訳(メタデータ) (2024-06-03T12:27:29Z) - Improving Breast Cancer Grade Prediction with Multiparametric MRI Created Using Optimized Synthetic Correlated Diffusion Imaging [71.91773485443125]
乳がん治療計画において、グレーディングは重要な役割を担っている。
現在の腫瘍グレード法では、患者から組織を抽出し、ストレス、不快感、医療費の上昇につながる。
本稿では,CDI$s$の最適化による乳癌の診断精度の向上について検討する。
論文 参考訳(メタデータ) (2024-05-13T15:48:26Z) - Towards Generalizable Tumor Synthesis [48.45704270448412]
腫瘍合成は、医用画像における人工腫瘍の作成を可能にし、腫瘍の検出とセグメンテーションのためのAIモデルのトレーニングを容易にする。
本論文は, 臨界観察を生かして, 一般化可能な腫瘍合成に向けて進歩的な一歩を踏み出した。
私たちは、Diffusion Modelsのような生成AIモデルが、単一の臓器から限られた数の腫瘍例を訓練しても、様々な臓器に一般化された現実的な腫瘍を作成できることを確認した。
論文 参考訳(メタデータ) (2024-02-29T18:57:39Z) - Early Detection and Localization of Pancreatic Cancer by Label-Free
Tumor Synthesis [11.86190788916592]
膵癌の早期発見と局所化は、患者の5年間の生存率を8.5%から20%に引き上げることができる。
トレーニングAIモデルには、多数の注釈付きサンプルが必要だが、早期の腫瘍を取得するCTスキャンが利用可能であることには制約がある。
手動のアノテーションを必要とせず, 膵内小膵腫瘍の膨大な例を合成できる腫瘍合成法を開発した。
論文 参考訳(メタデータ) (2023-08-06T03:37:34Z) - Label-Free Liver Tumor Segmentation [10.851067782021902]
我々は, 合成腫瘍をCTスキャンで使用することにより, 手動によるアノテーションを必要とせずに, 肝腫瘍を正確に分類できることを示した。
私たちの合成腫瘍には、現実的な形状とテクスチャという、2つの興味深い利点があります。
私たちの合成腫瘍は、小さな(あるいは小さな)合成腫瘍の多くの例を自動的に生成することができます。
論文 参考訳(メタデータ) (2023-03-27T01:22:12Z) - CancerUniT: Towards a Single Unified Model for Effective Detection,
Segmentation, and Diagnosis of Eight Major Cancers Using a Large Collection
of CT Scans [45.83431075462771]
ヒトの読者や放射線医は、臨床実践において、全身多臓器多臓器の検出と診断を日常的に行う。
ほとんどの医療用AIシステムは、いくつかの疾患のリストの狭い単一の臓器に焦点を当てて構築されている。
CancerUniT は、マルチ腫瘍予測の出力を持つクエリベースの Mask Transformer モデルである。
論文 参考訳(メタデータ) (2023-01-28T20:09:34Z) - Moving from 2D to 3D: volumetric medical image classification for rectal
cancer staging [62.346649719614]
術前T2期とT3期を区別することは直腸癌治療における最も困難かつ臨床的に重要な課題である。
直腸MRIでT3期直腸癌からT2を正確に判別するための体積畳み込みニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2022-09-13T07:10:14Z) - Triplet Contrastive Learning for Brain Tumor Classification [99.07846518148494]
本稿では,脳腫瘍の深層埋め込みを直接学習する手法を提案する。
本手法は,27種類の腫瘍群からなる広範囲な脳腫瘍データセットを用いて評価し,そのうち13種は稀である。
論文 参考訳(メタデータ) (2021-08-08T11:26:34Z) - Stan: Small tumor-aware network for breast ultrasound image segmentation [68.8204255655161]
本研究では,小腫瘍認識ネットワーク(Small tumor-Aware Network,STAN)と呼ばれる新しいディープラーニングアーキテクチャを提案する。
提案手法は, 乳腺腫瘍の分節化における最先端のアプローチよりも優れていた。
論文 参考訳(メタデータ) (2020-02-03T22:25:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。