論文の概要: Self-supervised 3D anatomy segmentation using self-distilled masked
image transformer (SMIT)
- arxiv url: http://arxiv.org/abs/2205.10342v1
- Date: Fri, 20 May 2022 17:55:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-23 15:40:30.953956
- Title: Self-supervised 3D anatomy segmentation using self-distilled masked
image transformer (SMIT)
- Title(参考訳): 自己蒸留マスク画像変換器(smit)を用いた自己教師あり3次元解剖セグメンテーション
- Authors: Jue Jiang, Neelam Tyagi, Kathryn Tringale, Christopher Crane, Harini
Veeraraghavan
- Abstract要約: 自己教師型学習は、畳み込みネットワークを用いた医用画像のセグメンテーションに成功している。
我々は、我々のアプローチがより正確で、他のプリテキストタスクよりも微調整データセットを少なくする必要があることを示した。
- 参考スコア(独自算出の注目度): 2.7298989068857487
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Vision transformers, with their ability to more efficiently model long-range
context, have demonstrated impressive accuracy gains in several computer vision
and medical image analysis tasks including segmentation. However, such methods
need large labeled datasets for training, which is hard to obtain for medical
image analysis. Self-supervised learning (SSL) has demonstrated success in
medical image segmentation using convolutional networks. In this work, we
developed a \underline{s}elf-distillation learning with \underline{m}asked
\underline{i}mage modeling method to perform SSL for vision
\underline{t}ransformers (SMIT) applied to 3D multi-organ segmentation from CT
and MRI. Our contribution is a dense pixel-wise regression within masked
patches called masked image prediction, which we combined with masked patch
token distillation as pretext task to pre-train vision transformers. We show
our approach is more accurate and requires fewer fine tuning datasets than
other pretext tasks. Unlike prior medical image methods, which typically used
image sets arising from disease sites and imaging modalities corresponding to
the target tasks, we used 3,643 CT scans (602,708 images) arising from head and
neck, lung, and kidney cancers as well as COVID-19 for pre-training and applied
it to abdominal organs segmentation from MRI pancreatic cancer patients as well
as publicly available 13 different abdominal organs segmentation from CT. Our
method showed clear accuracy improvement (average DSC of 0.875 from MRI and
0.878 from CT) with reduced requirement for fine-tuning datasets over commonly
used pretext tasks. Extensive comparisons against multiple current SSL methods
were done. Code will be made available upon acceptance for publication.
- Abstract(参考訳): 長距離コンテキストをより効率的にモデル化できるビジョントランスフォーマーは、いくつかのコンピュータビジョンや、セグメンテーションを含む医療画像解析タスクにおいて、顕著な精度向上を示している。
しかし、このような方法はトレーニングのために大きなラベル付きデータセットを必要とするため、医用画像解析には入手が困難である。
自己教師付き学習(ssl)は畳み込みネットワークを用いた医用画像分割に成功している。
本研究では,CTとMRIの3次元多臓器分割に応用した視覚用アンダーライン{s}elf-distillation Learning with \underline{m}asked \underline{i}mage modeling methodを用いて,視覚用アンダーライン{t}ransformers (SMIT) のSSLを実現する。
我々の貢献は、マスク付き画像予測と呼ばれるマスク付きパッチ内でのピクセル単位の回帰であり、プリテキストタスクとしてマスク付きパッチトークン蒸留と組み合わせた。
このアプローチはより正確で、他のプリテキストタスクよりも微調整データセットを少なくする必要がある。
従来の医用画像法とは異なり, 頭頸部癌, 肺癌, 腎癌から発生した3,643個のCTスキャン(602,708画像)と, MRI膵癌患者からの腹腔内分画とCTからの腹腔内分画に応用した3,643個のCTスキャン(602,708画像)を併用した。
提案手法では,mriで0.875,ctで0.878の精度が向上し,一般的なプリテキストタスクよりもデータセットの微調整の必要が軽減された。
複数の現在のSSLメソッドに対する大規模な比較が行われた。
コードは出版が承認されたら利用可能になる。
関連論文リスト
- CT-GLIP: 3D Grounded Language-Image Pretraining with CT Scans and Radiology Reports for Full-Body Scenarios [53.94122089629544]
我々は,CT-GLIP(Grounded Language- Image Pretraining with CT scans)を導入する。
本手法は,104臓器にわたる17,702症例を対象に,44,011例の臓器レベルの視覚テキストペアからなるマルチモーダルCTデータセットを用いて訓練し,自然言語を用いて臓器と異常をゼロショットで識別できることを実証した。
論文 参考訳(メタデータ) (2024-04-23T17:59:01Z) - M3BUNet: Mobile Mean Max UNet for Pancreas Segmentation on CT-Scans [25.636974007788986]
我々は,M3BUNetを提案する。M3BUNetはMobileNetとU-Netニューラルネットワークの融合で,2段階に分けて膵CT像を段階的に分割する,新しい平均値(MM)アテンションを備える。
細かなセグメンテーションの段階では、ウェーブレット分解フィルタを用いてマルチインプット画像を作成することにより、膵のセグメンテーション性能が向上することがわかった。
提案手法は,最大89.53%のDice similarity Coefficient(DSC)値と最大81.16のIntersection Over Union(IOU)スコアをNIH pancreasデータセットで達成する。
論文 参考訳(メタデータ) (2024-01-18T23:10:08Z) - MA-SAM: Modality-agnostic SAM Adaptation for 3D Medical Image
Segmentation [58.53672866662472]
我々はMA-SAMと命名されたモダリティに依存しないSAM適応フレームワークを提案する。
本手法は,重量増加のごく一部だけを更新するためのパラメータ効率の高い微調整戦略に根ざしている。
画像エンコーダのトランスバータブロックに一連の3Dアダプタを注入することにより,事前学習した2Dバックボーンが入力データから3次元情報を抽出することができる。
論文 参考訳(メタデータ) (2023-09-16T02:41:53Z) - Disruptive Autoencoders: Leveraging Low-level features for 3D Medical
Image Pre-training [51.16994853817024]
本研究は、3Dラジオグラフィ画像のための効果的な事前学習フレームワークの設計に焦点をあてる。
ローカルマスキングと低レベルの摂動の組み合わせによって生成された破壊から、オリジナルのイメージを再構築しようとする事前トレーニングフレームワークであるDisruptive Autoencodersを紹介する。
提案する事前トレーニングフレームワークは、複数のダウンストリームタスクでテストされ、最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-07-31T17:59:42Z) - PCRLv2: A Unified Visual Information Preservation Framework for
Self-supervised Pre-training in Medical Image Analysis [56.63327669853693]
本稿では,ピクセルレベルの情報を高レベルなセマンティクスに明示的にエンコードするための画素復元タスクを提案する。
また,画像理解を支援する強力なツールであるスケール情報の保存についても検討する。
提案されている統合SSLフレームワークは、さまざまなタスクで自己管理されたフレームワークを超越している。
論文 参考訳(メタデータ) (2023-01-02T17:47:27Z) - Attentive Symmetric Autoencoder for Brain MRI Segmentation [56.02577247523737]
視覚変換器(ViT)をベースとした3次元脳MRIセグメンテーションタスクのための新しいアテンテーティブシンメトリオートエンコーダを提案する。
事前学習の段階では、提案するオートエンコーダがより注意を払って、勾配測定値に従って情報パッチを再構築する。
実験の結果,提案手法は最先端の自己教師付き学習法や医用画像分割モデルよりも優れていた。
論文 参考訳(メタデータ) (2022-09-19T09:43:19Z) - Self Pre-training with Masked Autoencoders for Medical Image
Classification and Segmentation [37.25161294917211]
Masked Autoencoder (MAE) は自然画像解析のための事前学習型視覚変換器 (ViT) に有効であることが示されている。
医用画像解析タスクにおけるMAEを用いた自己事前学習パラダイムについて検討する。
論文 参考訳(メタデータ) (2022-03-10T16:22:38Z) - CyTran: A Cycle-Consistent Transformer with Multi-Level Consistency for
Non-Contrast to Contrast CT Translation [56.622832383316215]
コントラストCTを非コントラストCTに変換する手法を提案する。
提案手法は、CyTranを略して、サイクル一貫性のある生成逆転変換器に基づいている。
実験の結果、CyTranは競合するすべての手法より優れています。
論文 参考訳(メタデータ) (2021-10-12T23:25:03Z) - Unpaired cross-modality educed distillation (CMEDL) applied to CT lung
tumor segmentation [4.409836695738518]
我々は,不対位CTおよびMRIスキャンを用いて,新しいクロスモーダル教育蒸留法(CMEDL)を考案した。
我々のフレームワークは、エンドツーエンドで訓練されたI2I翻訳、教師、学生セグメンテーションネットワークを使用している。
論文 参考訳(メタデータ) (2021-07-16T15:58:15Z) - Robust Pancreatic Ductal Adenocarcinoma Segmentation with
Multi-Institutional Multi-Phase Partially-Annotated CT Scans [25.889684822655255]
膵管腺癌(PDAC)セグメンテーションは最も困難な腫瘍セグメンテーションの1つである。
新たな自己学習フレームワークに基づいて,より多量の患者を用いてPDACセグメンテーションモデルを訓練することを提案する。
実験の結果,提案手法は,注釈付き画像に基づいてトレーニングしたnnUNetの強いベースラインに対して,Diceスコアの6.3%を絶対的に改善することを示した。
論文 参考訳(メタデータ) (2020-08-24T18:50:30Z) - A$^3$DSegNet: Anatomy-aware artifact disentanglement and segmentation
network for unpaired segmentation, artifact reduction, and modality
translation [18.500206499468902]
CBCT画像は, ノイズ, 組織コントラストの低下, 金属物の存在により, 品質が低く, 人工物が混入している。
脊椎のアノテーションを付加した、人工物のない高品質なCT画像が豊富に存在する。
CBCT椎体分割モデルの構築には, アノテーションを付加した未確認CT画像が有用である。
論文 参考訳(メタデータ) (2020-01-02T06:37:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。