論文の概要: Trustworthiness of Pretrained Transformers for Lung Cancer Segmentation
- arxiv url: http://arxiv.org/abs/2403.13113v1
- Date: Tue, 19 Mar 2024 19:36:48 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-21 18:47:08.638631
- Title: Trustworthiness of Pretrained Transformers for Lung Cancer Segmentation
- Title(参考訳): 肺癌切除用プレトレーニングトランスの信頼性
- Authors: Aneesh Rangnekar, Nishant Nadkarni, Jue Jiang, Harini Veeraraghavan,
- Abstract要約: Swin UNETR と SMIT の2つの自己超越型トランスフォーマーモデルを用いて肺腫瘍の微細化試験を行った。
両モデルとも分布内データに対して高い精度を示した。
これらの発見は、現在および将来の事前訓練されたモデルの安全な開発と展開のガイドとなると期待している。
- 参考スコア(独自算出の注目度): 6.712251433139412
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We assessed the trustworthiness of two self-supervision pretrained transformer models, Swin UNETR and SMIT, for fine-tuned lung (LC) tumor segmentation using 670 CT and MRI scans. We measured segmentation accuracy on two public 3D-CT datasets, robustness on CT scans of patients with COVID-19, CT scans of patients with ovarian cancer and T2-weighted MRI of men with prostate cancer, and zero-shot generalization of LC for T2-weighted MRIs. Both models demonstrated high accuracy on in-distribution data (Dice 0.80 for SMIT and 0.78 for Swin UNETR). SMIT showed similar near-out-of-distribution performance on CT scans (AUROC 89.85% vs. 89.19%) but significantly better far-out-of-distribution accuracy on CT (AUROC 97.2% vs. 87.1%) and MRI (92.15% vs. 73.8%). SMIT outperformed Swin UNETR in zero-shot segmentation on MRI (Dice 0.78 vs. 0.69). We expect these findings to guide the safe development and deployment of current and future pretrained models in routine clinical use.
- Abstract(参考訳): 670 CT と MRI を用いた肺小切開術において,Swin UNETR と SMIT の2種類の自己超越型トランスフォーマーモデルの信頼性について検討した。
前立腺癌における3D-CTの2つのデータセットのセグメンテーション精度, 新型コロナウイルス患者のCTスキャンの堅牢性, 卵巣癌患者のCTスキャン, 前立腺癌患者のT2強調MRI, およびT2強調MRIにおけるLCのゼロショット一般化について検討した。
どちらのモデルも、分配データの精度が高い(SMITは0.80、Swin UNETRは0.78)。
SMITは、CTスキャンでは同様の偏分布性能(AUROC 89.85% vs. 89.19%)を示したが、CT(AUROC 97.2% vs. 87.1%)とMRI(92.15% vs. 73.8%)ではより優れた偏分布精度を示した。
SMITはMRIでのゼロショットセグメンテーション(Dice 0.78 vs. 0.69)でSwin UNETRより優れていた。
これらの知見は,日常的な臨床利用における,現在および将来の事前訓練モデルの安全な開発と展開の指針となるものと期待される。
関連論文リスト
- Towards a Benchmark for Colorectal Cancer Segmentation in Endorectal Ultrasound Videos: Dataset and Model Development [59.74920439478643]
本稿では,多様なERUSシナリオをカバーする最初のベンチマークデータセットを収集し,注釈付けする。
ERUS-10Kデータセットは77の動画と10,000の高解像度アノテートフレームで構成されています。
本稿では,ASTR (Adaptive Sparse-context TRansformer) という大腸癌セグメンテーションのベンチマークモデルを提案する。
論文 参考訳(メタデータ) (2024-08-19T15:04:42Z) - TotalSegmentator MRI: Sequence-Independent Segmentation of 59 Anatomical Structures in MR images [62.53931644063323]
本研究では,TotalSegmentatorをMR画像に拡張した。
このデータセットに基づいてnnU-Netセグメンテーションアルゴリズムを訓練し、類似度係数(Dice)を計算し、モデルの性能を評価した。
このモデルは、他の2つの公開セグメンテーションモデル(Dice score 0.824 vs 0.762; p0.001 and 0.762 versus 0.542; p)を大きく上回った。
論文 参考訳(メタデータ) (2024-05-29T20:15:54Z) - MRSegmentator: Multi-Modality Segmentation of 40 Classes in MRI and CT [29.48170108608303]
このモデルは、英国バイオバンクの1200個の手動3D軸MRIスキャン、221個の社内MRIスキャン、1228個のCTスキャンでトレーニングされた。
明確な臓器(肺: DSC 0.96, 心臓: DSC 0.94)と解剖学的変化のある臓器(皮膚: DSC 0.96, 腎臓: DSC 0.95)に対して高い精度を示す。
CTとよく似ており、AMOS CTデータではDSC平均0.84$pm$ 0.11となる。
論文 参考訳(メタデータ) (2024-05-10T13:15:42Z) - High-Fidelity Image Synthesis from Pulmonary Nodule Lesion Maps using
Semantic Diffusion Model [10.412300404240751]
肺がんは、長年にわたり、世界中でがん関連の死因の1つとなっている。
ディープラーニング、学習アルゴリズムに基づくコンピュータ支援診断(CAD)モデルは、スクリーニングプロセスを加速することができる。
しかし、堅牢で正確なモデルを開発するには、しばしば高品質なアノテーションを備えた大規模で多様な医療データセットが必要である。
論文 参考訳(メタデータ) (2023-05-02T01:04:22Z) - Mediastinal Lymph Node Detection and Segmentation Using Deep Learning [1.7188280334580195]
臨床ではCT(Computed tomography)とPET(positron emission tomography)が異常リンパ節(LN)を検出する
深層畳み込みニューラルネットワークは、しばしば医療写真にアイテムを分割する。
良質な深層学習手法であるUNetは、縦隔リンパ節の分節と検出のための戦略に基づいて、双線形および全一般化変異(TGV)を用いて修正された。
修正されたUNetはテクスチャの不連続を維持し、ノイズの多い領域を選択し、バックプロパゲーションを通じて適切なバランスポイントを検索し、画像の解像度を再現する。
論文 参考訳(メタデータ) (2022-11-24T02:55:20Z) - Improving Classification Model Performance on Chest X-Rays through Lung
Segmentation [63.45024974079371]
本稿では, セグメンテーションによる異常胸部X線(CXR)識別性能を向上させるための深層学習手法を提案する。
提案手法は,CXR画像中の肺領域を局所化するための深層ニューラルネットワーク(XLSor)と,大規模CXRデータセットで事前学習した自己教師あり運動量コントラスト(MoCo)モデルのバックボーンを用いたCXR分類モデルである。
論文 参考訳(メタデータ) (2022-02-22T15:24:06Z) - Many-to-One Distribution Learning and K-Nearest Neighbor Smoothing for
Thoracic Disease Identification [83.6017225363714]
ディープラーニングは、病気の識別性能を改善するための最も強力なコンピュータ支援診断技術となった。
胸部X線撮影では、大規模データの注釈付けには専門的なドメイン知識が必要で、時間を要する。
本論文では、単一モデルにおける疾患同定性能を改善するために、複数対1の分布学習(MODL)とK-nearest neighbor smoothing(KNNS)手法を提案する。
論文 参考訳(メタデータ) (2021-02-26T02:29:30Z) - Deep learning-based COVID-19 pneumonia classification using chest CT
images: model generalizability [54.86482395312936]
深層学習(DL)分類モデルは、異なる国の3DCTデータセット上で、COVID-19陽性患者を特定するために訓練された。
我々は、データセットと72%の列車、8%の検証、20%のテストデータを組み合わせたDLベースの9つの同一分類モデルを訓練した。
複数のデータセットでトレーニングされ、トレーニングに使用されるデータセットの1つからテストセットで評価されたモデルは、よりよいパフォーマンスを示した。
論文 参考訳(メタデータ) (2021-02-18T21:14:52Z) - Brain Tumor Segmentation and Survival Prediction using Automatic Hard
mining in 3D CNN Architecture [0.30098583327398537]
我々は3次元完全畳み込みニューラルネットワーク(CNN)を用いて、マルチモーダル磁気共鳴画像(MRI)からグリオーマとその構成成分を抽出する。
このアーキテクチャでは、密度の高い接続パターンを使用して重量と残留接続数を削減し、BraTS 2018データセットでこのモデルをトレーニングした結果の重量は0.448である。
シース類似度係数(DSC)の閾値を高めて、エポックの増加とともにハードケースを選択することにより、セグメンテーションタスクの難しいケースを訓練するために、トレーニング中にハードマイニングを行う。
論文 参考訳(メタデータ) (2021-01-05T14:34:16Z) - Chest x-ray automated triage: a semiologic approach designed for
clinical implementation, exploiting different types of labels through a
combination of four Deep Learning architectures [83.48996461770017]
本研究では,異なる畳み込みアーキテクチャの後期融合に基づく深層学習手法を提案する。
公開胸部x線画像と機関アーカイブを組み合わせたトレーニングデータセットを4つ構築した。
4つの異なるディープラーニングアーキテクチャをトレーニングし、それらのアウトプットとレイトフュージョン戦略を組み合わせることで、統一されたツールを得ました。
論文 参考訳(メタデータ) (2020-12-23T14:38:35Z) - A new semi-supervised self-training method for lung cancer prediction [0.28734453162509355]
CT(Computerd Tomography)スキャンから結節を同時に検出し、分類する方法は比較的少ない。
本研究は,Nuisy Student法による最先端の自己訓練法を用いて,肺結節の検出と分類を行うための完全なエンドツーエンドスキームを提案する。
論文 参考訳(メタデータ) (2020-12-17T09:53:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。