論文の概要: Self-distilled Masked Attention guided masked image modeling with noise
Regularized Teacher (SMART) for medical image analysis
- arxiv url: http://arxiv.org/abs/2310.01209v1
- Date: Mon, 2 Oct 2023 13:53:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-04 21:30:07.145851
- Title: Self-distilled Masked Attention guided masked image modeling with noise
Regularized Teacher (SMART) for medical image analysis
- Title(参考訳): 医用画像解析のための雑音正規化教師(SMART)を用いた自己蒸留仮面注意誘導マスク画像モデリング
- Authors: Jue Jiang, Harini Veeraraghavan
- Abstract要約: 本研究は,MIMと共蒸留による自己監督型注意喚起のためのセマンティッククラスアテンションによるスウィンの改良である。
i) [Task I] 進行期LC(n = 200 内部データセット), (ii) [Task II] 早期LC(n = 156 公開データセット), (iv) [Task IV) 胸部と腹部の非管理的クラスタリング(n = 1,743 公開データセット)について,肺がんの3次元CT解析におけるSMARTの評価を行った。
- 参考スコア(独自算出の注目度): 8.267311047244881
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Hierarchical shifted window transformers (Swin) are a computationally
efficient and more accurate alternative to plain vision transformers. Masked
image modeling (MIM)-based pretraining is highly effective in increasing
models' transferability to a variety of downstream tasks. However, more
accurate and efficient attention guided MIM approaches are difficult to
implement with Swin due to it's lack of an explicit global attention. We thus
architecturally enhanced Swin with semantic class attention for self-supervised
attention guided co-distillation with MIM. We also introduced a noise injected
momentum teacher, implemented with patch dropout of teacher's inputs for
improved training regularization and accuracy. Our approach, called
\underline{s}elf-distilled \underline{m}asked \underline{a}ttention MIM with
noise \underline{r}egularized \underline{t}eacher (SMART) was pretrained with
\textbf{10,412} unlabeled 3D computed tomography (CT)s of multiple disease
sites and sourced from institutional and public datasets. We evaluated SMART
for multiple downstream tasks involving analysis of 3D CTs of lung cancer (LC)
patients for: (i) [Task I] predicting immunotherapy response in advanced stage
LC (n = 200 internal dataset), (ii) [Task II] predicting LC recurrence in early
stage LC before surgery (n = 156 public dataset), (iii) [Task III] LC
segmentation (n = 200 internal, 21 public dataset), and (iv) [Task IV]
unsupervised clustering of organs in the chest and abdomen (n = 1,743 public
dataset) \underline{without} finetuning. SMART predicted immunotherapy response
with an AUC of 0.916, LC recurrence with an AUC of 0.793, segmented LC with
Dice accuracy of 0.81, and clustered organs with an inter-class cluster
distance of 5.94, indicating capability of attention guided MIM for Swin in
medical image analysis.
- Abstract(参考訳): 階層型シフトウィンドウトランスフォーマー(swin)は、プレーンビジョントランスフォーマーの計算効率が高く、より正確である。
マスク画像モデリング(mim)ベースのプリトレーニングは、様々な下流タスクへのモデルの転送性を高めるのに非常に効果的である。
しかし、より正確で効率的なMIMアプローチは、明示的なグローバルな注目を集めていないため、Swinでは実装が難しい。
そこで我々は,mimとの共蒸留を誘導する自己教師付注意のための意味クラス注目によるswainをアーキテクチャ的に拡張した。
また,教師の入力をパッチドロップアウトして学習規則化と精度を向上させるノイズ注入運動量教師も導入した。
提案手法は,複数の疾患部位の3次元コンピュータ断層撮影 (CT) で事前訓練を行い, 施設, 公共のデータセットから抽出した。
肺癌(LC)患者の3次元CT解析における複数の下流課題に対するSMARTの評価を行った。
(i)[Task I]による進行期LC(n = 200内部データセット)の免疫療法応答の予測
(ii)[Task II]手術前のLC早期再発を予測する(n = 156公開データセット)
(iii)[Task III]LCセグメンテーション(n = 200内部、21公開データセット)
(iv) [task iv] 胸部および腹部の臓器の教師なしクラスタリング(n = 1,743パブリックデータセット) \underline{without} 微調整。
SMARTは、AUCの0.916、AUCの0.793、Diceの精度0.81の分画LC、クラス間クラスター距離5.94のクラスター臓器による免疫療法反応を予測し、医用画像解析における注目誘導MIMの機能を示した。
関連論文リスト
- Enhancing Weakly Supervised 3D Medical Image Segmentation through
Probabilistic-aware Learning [52.249748801637196]
3次元医用画像のセグメンテーションは、疾患の診断と治療計画に重要な意味を持つ課題である。
近年の深層学習の進歩は、完全に教師付き医療画像のセグメンテーションを著しく強化している。
本稿では,3次元医用画像に特化して設計された,確率的適応型弱教師付き学習パイプラインを提案する。
論文 参考訳(メタデータ) (2024-03-05T00:46:53Z) - Weakly supervised segmentation of intracranial aneurysms using a novel 3D focal modulation UNet [0.5106162890866905]
本稿では,新しい3次元焦点変調UNetであるFocalSegNetを提案する。
UIA検出では偽陽性率は0.21で感度は0.80であった。
論文 参考訳(メタデータ) (2023-08-06T03:28:08Z) - Domain Transfer Through Image-to-Image Translation for Uncertainty-Aware
Prostate Cancer Classification [60.20736568336466]
臨床的に有意なPCa分類のための前立腺mp-MRIの非対位画像変換のための新しいアプローチを提案する。
我々は、明らかなディープラーニングアプローチにより、モデルの不確実性を見積もる。
提案手法は, ROC曲線(AUC)を20%以上改善することを示した。
論文 参考訳(メタデータ) (2023-07-02T05:26:54Z) - LVM-Med: Learning Large-Scale Self-Supervised Vision Models for Medical
Imaging via Second-order Graph Matching [59.01894976615714]
LVM-Medは、大規模医療データセットに基づいてトレーニングされた、最初のディープネットワークファミリーである。
55の公開データセットから約13万の医療画像を収集しました。
LVM-Medは、多くの最先端の教師付き、自己監督型、基礎モデルよりも経験的に優れている。
論文 参考訳(メタデータ) (2023-06-20T22:21:34Z) - Cross-Shaped Windows Transformer with Self-supervised Pretraining for Clinically Significant Prostate Cancer Detection in Bi-parametric MRI [6.930082824262643]
前立腺癌 (bpMRI) における臨床的に重要な前立腺癌 (csPCa) を検出するために, CSwin 変圧器 UNet モデル (CSwin 変圧器 UNet モデル) を導入した。
1500人の患者を対象とした大規模前立腺bpMRIデータセットを用いて、まずマルチタスク自己教師型学習を用いてCSwin変換器を事前訓練し、データ効率とネットワークの一般化性を向上させる。
5倍のクロスバリデーションは、自己教師型CSwin UNetが0.888 AUCと0.545 Average Precision(AP)を達成し、4つの同等モデル(Swin U)を著しく上回っていることを示している。
論文 参考訳(メタデータ) (2023-04-30T04:40:32Z) - Learning to diagnose cirrhosis from radiological and histological labels
with joint self and weakly-supervised pretraining strategies [62.840338941861134]
そこで本稿では, 放射線学者が注釈付けした大規模データセットからの転写学習を活用して, 小さい付加データセットで利用できる組織学的スコアを予測することを提案する。
我々は,肝硬変の予測を改善するために,異なる事前訓練法,すなわち弱い指導法と自己指導法を比較した。
この方法は、METAVIRスコアのベースライン分類を上回り、AUCが0.84、バランスの取れた精度が0.75に達する。
論文 参考訳(メタデータ) (2023-02-16T17:06:23Z) - Advancing Radiograph Representation Learning with Masked Record Modeling [52.04899592688968]
我々は2つの相補的な目的として自己と報告の補完を定式化し、マスク付きレコードモデリング(MRM)に基づく統一的な枠組みを提案する。
MRMは、知識強化されたセマンティック表現を学ぶためのマルチタスクスキームに従って、マスクされた画像パッチとマスクされたレポートトークンを再構築する。
具体的には、MRMはラベル効率の良い微調整において優れた性能を提供する。
論文 参考訳(メタデータ) (2023-01-30T18:33:32Z) - Self-supervised 3D anatomy segmentation using self-distilled masked
image transformer (SMIT) [2.7298989068857487]
自己教師型学習は、畳み込みネットワークを用いた医用画像のセグメンテーションに成功している。
我々は、我々のアプローチがより正確で、他のプリテキストタスクよりも微調整データセットを少なくする必要があることを示した。
論文 参考訳(メタデータ) (2022-05-20T17:55:14Z) - Feature-enhanced Adversarial Semi-supervised Semantic Segmentation
Network for Pulmonary Embolism Annotation [6.142272540492936]
本研究は,肺塞栓病変領域を自動診断する機能強化逆行性半教師付きセマンティックセマンティックセグメンテーションモデルを構築した。
近年のPEAイメージセグメンテーション手法は,教師あり学習によって訓練されている。
本研究では,少量の未ラベル画像を追加することで,異なるデータセットに適用可能なモデルを構築するための半教師付き学習手法を提案する。
論文 参考訳(メタデータ) (2022-04-08T04:21:02Z) - How Transferable Are Self-supervised Features in Medical Image
Classification Tasks? [0.7734726150561086]
トランスファーラーニングは、医学分類タスクにおけるラベル付きデータの欠如を軽減するための標準的プラクティスとなっている。
自己教師付き事前訓練モデルでは、教師付きモデルよりもリッチな埋め込みが得られる。
Dynamic Visual Meta-Embedding (DVME)は、複数のモデルから事前学習された埋め込みを融合するエンドツーエンドのトランスファー学習アプローチである。
論文 参考訳(メタデータ) (2021-08-23T10:39:31Z) - Learning Inductive Attention Guidance for Partially Supervised
Pancreatic Ductal Adenocarcinoma Prediction [73.96902906734522]
膵管腺癌(PDAC)は、アメリカ合衆国で3番目に多いがん死の原因である。
本稿では,全てのトレーニングデータに対して安価な画像レベルのアノテーションが提供され,それらのサブセットに対してのみ,コストのかかるvoxelアノテーションが利用可能となる,部分教師付き設定について考察する。
Inductive Attention Guidance Network (IAG-Net) を提案し、通常の/PDAC分類のためのグローバル画像レベルの分類器と半教師付きPDAC分類のためのローカルボクセルレベルの分類器を共同で学習する。
論文 参考訳(メタデータ) (2021-05-31T08:16:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。