論文の概要: Improving the U-Net Configuration for Automated Delineation of Head and Neck Cancer on MRI
- arxiv url: http://arxiv.org/abs/2501.05120v1
- Date: Thu, 09 Jan 2025 10:22:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-10 13:58:24.706301
- Title: Improving the U-Net Configuration for Automated Delineation of Head and Neck Cancer on MRI
- Title(参考訳): MRIにおける頭頸部癌自動診断のためのU-Net構成の改善
- Authors: Andrei Iantsen,
- Abstract要約: MRIにおける腫瘍体積のセグメンテーションは困難で時間を要するプロセスである。
本研究は,頭部および頸部腫瘍のMRI画像における自動デライン化へのアプローチを示す。
本研究の目的は,医学的セグメンテーションタスクで一般的に使用される構成の改善を提案することである。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Tumor volume segmentation on MRI is a challenging and time-consuming process that is performed manually in typical clinical settings. This work presents an approach to automated delineation of head and neck tumors on MRI scans, developed in the context of the MICCAI Head and Neck Tumor Segmentation for MR-Guided Applications (HNTS-MRG) 2024 Challenge. Rather than designing a new, task-specific convolutional neural network, the focus of this research was to propose improvements to the configuration commonly used in medical segmentation tasks, relying solely on the traditional U-Net architecture. The empirical results presented in this article suggest the superiority of patch-wise normalization used for both training and sliding window inference. They also indicate that the performance of segmentation models can be enhanced by applying a scheduled data augmentation policy during training. Finally, it is shown that a small improvement in quality can be achieved by using Gaussian weighting to combine predictions for individual patches during sliding window inference. The model with the best configuration obtained an aggregated Dice Similarity Coefficient (DSCagg) of 0.749 in Task 1 and 0.710 in Task 2 on five cross-validation folds. The ensemble of five models (one best model per validation fold) showed consistent results on a private test set of 50 patients with an DSCagg of 0.752 in Task 1 and 0.718 in Task 2 (team name: andrei.iantsen). The source code and model weights are freely available at www.github.com/iantsen/hntsmrg.
- Abstract(参考訳): MRIにおける腫瘍体積のセグメンテーションは、典型的な臨床現場で手動で行う、困難で時間を要するプロセスである。
本研究は, MR-Guided Applications (HNTS-MRG) 2024 Challenge において, MICCAI Head と Neck tumor Segmentation の文脈で開発された MRI スキャンにおける頭頸部腫瘍の自動除線へのアプローチを示す。
この研究の目的は、タスク固有の畳み込みニューラルネットワークを設計するのではなく、従来のU-Netアーキテクチャにのみ依存して、医学的セグメンテーションタスクで一般的に使用される構成を改善することであった。
本稿では,トレーニングとスライディングウインドウ推論の両方にパッチワイド正規化が有効であることを示す。
また、トレーニング中にスケジュールデータ拡張ポリシーを適用することにより、セグメンテーションモデルの性能を向上させることができることを示す。
最後に、ガウス重み付けを用いて、スライディングウィンドウ推論中の個々のパッチの予測を組み合わせることで、品質の小さな改善が達成できることが示されている。
最適構成のモデルは、タスク1では0.749、タスク2では0.710の集合Dice similarity Coefficient (DSCagg) を、5つのクロスバリデーション・フォールドで取得した。
5つのモデルのアンサンブル(検証毎の最良のモデル1つ)は、DSCaggがタスク1で0.752、タスク2で0.718(チーム名:Andrei.iantsen)のプライベートテストセットで一貫した結果を示した。
ソースコードとモデルウェイトはwww.github.com/iantsen/hntsmrgで無料で入手できる。
関連論文リスト
- Handling Geometric Domain Shifts in Semantic Segmentation of Surgical RGB and Hyperspectral Images [67.66644395272075]
本稿では,幾何学的アウト・オブ・ディストリビューションデータに直面する場合の,最先端のセマンティックセマンティックセマンティクスモデルの最初の解析を行う。
本稿では, 汎用性を高めるために, 有機移植(Organ Transplantation)と呼ばれる拡張技術を提案する。
我々の拡張技術は、RGBデータに対して最大67%、HSIデータに対して90%のSOAモデル性能を改善し、実際のOODテストデータに対して、分配内パフォーマンスのレベルでのパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-08-27T19:13:15Z) - TotalSegmentator MRI: Sequence-Independent Segmentation of 59 Anatomical Structures in MR images [62.53931644063323]
本研究では,TotalSegmentatorをMR画像に拡張した。
このデータセットに基づいてnnU-Netセグメンテーションアルゴリズムを訓練し、類似度係数(Dice)を計算し、モデルの性能を評価した。
このモデルは、他の2つの公開セグメンテーションモデル(Dice score 0.824 vs 0.762; p0.001 and 0.762 versus 0.542; p)を大きく上回った。
論文 参考訳(メタデータ) (2024-05-29T20:15:54Z) - Re-DiffiNet: Modeling discrepancies in tumor segmentation using diffusion models [1.7995110894203483]
本稿では,U-Netのようなセグメンテーションモデルの出力と基底真理との相違をモデル化するRe-Diffinetというフレームワークを紹介する。
その結果、Diceスコアの平均0.55%、HD95の平均16.28%が5倍以上のクロスバリデーションで改善された。
論文 参考訳(メタデータ) (2024-02-12T01:03:39Z) - LVM-Med: Learning Large-Scale Self-Supervised Vision Models for Medical
Imaging via Second-order Graph Matching [59.01894976615714]
LVM-Medは、大規模医療データセットに基づいてトレーニングされた、最初のディープネットワークファミリーである。
55の公開データセットから約13万の医療画像を収集しました。
LVM-Medは、多くの最先端の教師付き、自己監督型、基礎モデルよりも経験的に優れている。
論文 参考訳(メタデータ) (2023-06-20T22:21:34Z) - A quality assurance framework for real-time monitoring of deep learning
segmentation models in radiotherapy [3.5752677591512487]
この研究は、品質保証フレームワークを確立するために、心臓のサブ構造セグメンテーションを例として用いている。
心電図(CT)画像と241例の心電図を用いたベンチマークデータセットを収集した。
訓練されたDenoising Autoencoder(DAE)と2つの手動特徴を利用して画像領域シフト検出器を開発した。
Dice similarity coefficient (DSC) を用いて患者ごとのセグメンテーション精度を予測するための回帰モデルを構築した。
論文 参考訳(メタデータ) (2023-05-19T14:51:05Z) - Cross-Shaped Windows Transformer with Self-supervised Pretraining for Clinically Significant Prostate Cancer Detection in Bi-parametric MRI [6.930082824262643]
前立腺癌 (bpMRI) における臨床的に重要な前立腺癌 (csPCa) を検出するために, CSwin 変圧器 UNet モデル (CSwin 変圧器 UNet モデル) を導入した。
1500人の患者を対象とした大規模前立腺bpMRIデータセットを用いて、まずマルチタスク自己教師型学習を用いてCSwin変換器を事前訓練し、データ効率とネットワークの一般化性を向上させる。
5倍のクロスバリデーションは、自己教師型CSwin UNetが0.888 AUCと0.545 Average Precision(AP)を達成し、4つの同等モデル(Swin U)を著しく上回っていることを示している。
論文 参考訳(メタデータ) (2023-04-30T04:40:32Z) - Continuous time recurrent neural networks: overview and application to
forecasting blood glucose in the intensive care unit [56.801856519460465]
連続時間自己回帰リカレントニューラルネットワーク(Continuous Time Autoregressive Recurrent Neural Network, CTRNN)は、不規則な観測を考慮に入れたディープラーニングモデルである。
重篤なケア環境下での血糖値の確率予測へのこれらのモデルの適用を実証する。
論文 参考訳(メタデータ) (2023-04-14T09:39:06Z) - Semi-Supervised Segmentation of Multi-vendor and Multi-center Cardiac
MRI using Histogram Matching [0.0]
本研究では, 左室, 右室, 心筋のセグメンテーションにラベルのないデータを活用する半教師付きセグメンテーション・セットアップを提案する。
ダイス損失を用いたクラス不均衡データ問題に対処し、教師付きモデルによりより良いダイススコアを得ることができる。
左室,右室,心筋の平均サイコロスコアは0.921,0.926,0.891である。
論文 参考訳(メタデータ) (2023-02-22T08:23:19Z) - Prompt Tuning for Parameter-efficient Medical Image Segmentation [79.09285179181225]
2つの医用画像データセットのセマンティックセグメンテーションにパラメータ効率が良いが効果的な適応を実現するために,いくつかのコントリビューションを提案し,検討する。
我々はこのアーキテクチャを、オンライン生成プロトタイプへの割り当てに基づく専用密集型セルフスーパービジョンスキームで事前訓練する。
得られたニューラルネットワークモデルにより、完全に微調整されたモデルとパラメータに適応したモデルとのギャップを緩和できることを実証する。
論文 参考訳(メタデータ) (2022-11-16T21:55:05Z) - Multimodal PET/CT Tumour Segmentation and Prediction of Progression-Free
Survival using a Full-Scale UNet with Attention [0.8138288420049126]
MICCAI 2021 ヘッドとネックタマ (HECKTOR) セグメンテーションと結果予測の課題は、セグメンテーション法を比較するためのプラットフォームを作成する。
腫瘍容積セグメンテーションのために複数のニューラルネットワークを訓練し,これらのセグメンテーションを組込み,平均Dice類似度係数0.75をクロスバリデーションで達成した。
患者進行自由生存の予測のために,臨床,放射線学,深層学習機能を組み合わせたCox比例的ハザード回帰法を提案する。
論文 参考訳(メタデータ) (2021-11-06T10:28:48Z) - Brain tumor segmentation with self-ensembled, deeply-supervised 3D U-net
neural networks: a BraTS 2020 challenge solution [56.17099252139182]
U-netのようなニューラルネットワークを用いた脳腫瘍セグメント化作業の自動化と標準化を行う。
2つの独立したモデルのアンサンブルが訓練され、それぞれが脳腫瘍のセグメンテーションマップを作成した。
我々の解は、最終試験データセットにおいて、Diceの0.79、0.89、0.84、およびHausdorffの95%の20.4、6.7、19.5mmを達成した。
論文 参考訳(メタデータ) (2020-10-30T14:36:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。