論文の概要: Self-distilled Masked Attention guided masked image modeling with noise
Regularized Teacher (SMART) for medical image analysis
- arxiv url: http://arxiv.org/abs/2310.01209v1
- Date: Mon, 2 Oct 2023 13:53:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-04 21:30:07.145851
- Title: Self-distilled Masked Attention guided masked image modeling with noise
Regularized Teacher (SMART) for medical image analysis
- Title(参考訳): 医用画像解析のための雑音正規化教師(SMART)を用いた自己蒸留仮面注意誘導マスク画像モデリング
- Authors: Jue Jiang, Harini Veeraraghavan
- Abstract要約: 本研究は,MIMと共蒸留による自己監督型注意喚起のためのセマンティッククラスアテンションによるスウィンの改良である。
i) [Task I] 進行期LC(n = 200 内部データセット), (ii) [Task II] 早期LC(n = 156 公開データセット), (iv) [Task IV) 胸部と腹部の非管理的クラスタリング(n = 1,743 公開データセット)について,肺がんの3次元CT解析におけるSMARTの評価を行った。
- 参考スコア(独自算出の注目度): 8.267311047244881
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Hierarchical shifted window transformers (Swin) are a computationally
efficient and more accurate alternative to plain vision transformers. Masked
image modeling (MIM)-based pretraining is highly effective in increasing
models' transferability to a variety of downstream tasks. However, more
accurate and efficient attention guided MIM approaches are difficult to
implement with Swin due to it's lack of an explicit global attention. We thus
architecturally enhanced Swin with semantic class attention for self-supervised
attention guided co-distillation with MIM. We also introduced a noise injected
momentum teacher, implemented with patch dropout of teacher's inputs for
improved training regularization and accuracy. Our approach, called
\underline{s}elf-distilled \underline{m}asked \underline{a}ttention MIM with
noise \underline{r}egularized \underline{t}eacher (SMART) was pretrained with
\textbf{10,412} unlabeled 3D computed tomography (CT)s of multiple disease
sites and sourced from institutional and public datasets. We evaluated SMART
for multiple downstream tasks involving analysis of 3D CTs of lung cancer (LC)
patients for: (i) [Task I] predicting immunotherapy response in advanced stage
LC (n = 200 internal dataset), (ii) [Task II] predicting LC recurrence in early
stage LC before surgery (n = 156 public dataset), (iii) [Task III] LC
segmentation (n = 200 internal, 21 public dataset), and (iv) [Task IV]
unsupervised clustering of organs in the chest and abdomen (n = 1,743 public
dataset) \underline{without} finetuning. SMART predicted immunotherapy response
with an AUC of 0.916, LC recurrence with an AUC of 0.793, segmented LC with
Dice accuracy of 0.81, and clustered organs with an inter-class cluster
distance of 5.94, indicating capability of attention guided MIM for Swin in
medical image analysis.
- Abstract(参考訳): 階層型シフトウィンドウトランスフォーマー(swin)は、プレーンビジョントランスフォーマーの計算効率が高く、より正確である。
マスク画像モデリング(mim)ベースのプリトレーニングは、様々な下流タスクへのモデルの転送性を高めるのに非常に効果的である。
しかし、より正確で効率的なMIMアプローチは、明示的なグローバルな注目を集めていないため、Swinでは実装が難しい。
そこで我々は,mimとの共蒸留を誘導する自己教師付注意のための意味クラス注目によるswainをアーキテクチャ的に拡張した。
また,教師の入力をパッチドロップアウトして学習規則化と精度を向上させるノイズ注入運動量教師も導入した。
提案手法は,複数の疾患部位の3次元コンピュータ断層撮影 (CT) で事前訓練を行い, 施設, 公共のデータセットから抽出した。
肺癌(LC)患者の3次元CT解析における複数の下流課題に対するSMARTの評価を行った。
(i)[Task I]による進行期LC(n = 200内部データセット)の免疫療法応答の予測
(ii)[Task II]手術前のLC早期再発を予測する(n = 156公開データセット)
(iii)[Task III]LCセグメンテーション(n = 200内部、21公開データセット)
(iv) [task iv] 胸部および腹部の臓器の教師なしクラスタリング(n = 1,743パブリックデータセット) \underline{without} 微調整。
SMARTは、AUCの0.916、AUCの0.793、Diceの精度0.81の分画LC、クラス間クラスター距離5.94のクラスター臓器による免疫療法反応を予測し、医用画像解析における注目誘導MIMの機能を示した。
関連論文リスト
- Enhanced Self-supervised Learning for Multi-modality MRI Segmentation and Classification: A Novel Approach Avoiding Model Collapse [6.3467517115551875]
多モードMRI(Multi-modality magnetic resonance imaging)は、コンピュータ支援診断のための補完的な情報を提供する。
従来のディープラーニングアルゴリズムは、病変をセグメント化し、磁気共鳴画像で疾患を分類する特定の解剖学的構造を特定するのに適している。
自己教師付き学習(SSL)は、事前学習によりラベル付きデータから特徴表現を効果的に学習することができ、自然画像解析に有効であることが示されている。
ほとんどのSSLメソッドはマルチモードMRIの類似性を無視し、モデルが崩壊する。
ハイブリッドマスクパターン(HMP)とピラミッドバーローツイン(PBT)を組み合わせた多モードMRIマスク自動エンコーダの確立と検証を行った。
論文 参考訳(メタデータ) (2024-07-15T01:11:30Z) - COIN: Counterfactual inpainting for weakly supervised semantic segmentation for medical images [3.5418498524791766]
本研究は, 新規なカウンターファクト・インパインティング・アプローチ(COIN)の開発である。
COINは、予測された分類ラベルを生成モデルを用いて異常から正常に反転させる。
本手法の有効性は,エストニアのタルツ大学病院から取得したCT画像から,合成標的と実際の腎腫瘍を分離することによって実証される。
論文 参考訳(メタデータ) (2024-04-19T12:09:49Z) - Disruptive Autoencoders: Leveraging Low-level features for 3D Medical
Image Pre-training [51.16994853817024]
本研究は、3Dラジオグラフィ画像のための効果的な事前学習フレームワークの設計に焦点をあてる。
ローカルマスキングと低レベルの摂動の組み合わせによって生成された破壊から、オリジナルのイメージを再構築しようとする事前トレーニングフレームワークであるDisruptive Autoencodersを紹介する。
提案する事前トレーニングフレームワークは、複数のダウンストリームタスクでテストされ、最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-07-31T17:59:42Z) - Improving Masked Autoencoders by Learning Where to Mask [65.89510231743692]
マスケ画像モデリングは視覚データに対する有望な自己教師型学習手法である。
本稿では,Gumbel-Softmax を用いて,対向学習マスク生成装置とマスク誘導画像モデリングプロセスとを相互接続するフレームワーク AutoMAE を提案する。
実験の結果,AutoMAEは,標準の自己監督型ベンチマークや下流タスクに対して,効果的な事前学習モデルを提供することがわかった。
論文 参考訳(メタデータ) (2023-03-12T05:28:55Z) - Advancing Radiograph Representation Learning with Masked Record Modeling [52.04899592688968]
我々は2つの相補的な目的として自己と報告の補完を定式化し、マスク付きレコードモデリング(MRM)に基づく統一的な枠組みを提案する。
MRMは、知識強化されたセマンティック表現を学ぶためのマルチタスクスキームに従って、マスクされた画像パッチとマスクされたレポートトークンを再構築する。
具体的には、MRMはラベル効率の良い微調整において優れた性能を提供する。
論文 参考訳(メタデータ) (2023-01-30T18:33:32Z) - Attentive Symmetric Autoencoder for Brain MRI Segmentation [56.02577247523737]
視覚変換器(ViT)をベースとした3次元脳MRIセグメンテーションタスクのための新しいアテンテーティブシンメトリオートエンコーダを提案する。
事前学習の段階では、提案するオートエンコーダがより注意を払って、勾配測定値に従って情報パッチを再構築する。
実験の結果,提案手法は最先端の自己教師付き学習法や医用画像分割モデルよりも優れていた。
論文 参考訳(メタデータ) (2022-09-19T09:43:19Z) - Self-supervised 3D anatomy segmentation using self-distilled masked
image transformer (SMIT) [2.7298989068857487]
自己教師型学習は、畳み込みネットワークを用いた医用画像のセグメンテーションに成功している。
我々は、我々のアプローチがより正確で、他のプリテキストタスクよりも微調整データセットを少なくする必要があることを示した。
論文 参考訳(メタデータ) (2022-05-20T17:55:14Z) - Intelligent Masking: Deep Q-Learning for Context Encoding in Medical
Image Analysis [48.02011627390706]
我々は,対象地域を排除し,事前訓練の手順を改善する,新たな自己指導型アプローチを開発した。
予測モデルに対してエージェントを訓練することで、下流の分類タスクで抽出した意味的特徴を大幅に改善できることを示す。
論文 参考訳(メタデータ) (2022-03-25T19:05:06Z) - Self Pre-training with Masked Autoencoders for Medical Image
Classification and Segmentation [37.25161294917211]
Masked Autoencoder (MAE) は自然画像解析のための事前学習型視覚変換器 (ViT) に有効であることが示されている。
医用画像解析タスクにおけるMAEを用いた自己事前学習パラダイムについて検討する。
論文 参考訳(メタデータ) (2022-03-10T16:22:38Z) - Categorical Relation-Preserving Contrastive Knowledge Distillation for
Medical Image Classification [75.27973258196934]
そこで本研究では,一般的な平均教師モデルであるCRCKD(Categorical Relation-Reserving Contrastive Knowledge Distillation)アルゴリズムを提案する。
この正規化により、学生モデルの特徴分布はクラス内類似度が高く、クラス間分散を示す。
CCDとCRPの貢献により、我々のCRCKDアルゴリズムはより包括的に関係知識を蒸留することができる。
論文 参考訳(メタデータ) (2021-07-07T13:56:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。