論文の概要: Calibrated Self-supervised Vision Transformers Improve Intracranial Arterial Calcification Segmentation from Clinical CT Head Scans
- arxiv url: http://arxiv.org/abs/2507.01744v1
- Date: Wed, 02 Jul 2025 14:23:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-03 14:23:00.283906
- Title: Calibrated Self-supervised Vision Transformers Improve Intracranial Arterial Calcification Segmentation from Clinical CT Head Scans
- Title(参考訳): クリニカルCT頭部から頭蓋内動脈石灰化セグメンテーションを改善する校正型自己監督型視覚変換器
- Authors: Benjamin Jin, Grant Mair, Joanna M. Wardlaw, Maria del C. Valdés Hernández,
- Abstract要約: 頭蓋内動脈石灰化 (IAC) は、脳卒中や認知症などの神経血管疾患に関連する日常的に取得されたCTスキャンで見られる画像バイオマーカーである。
はじめてIACセグメンテーションのために,MAEを用いてVTを事前訓練し,微調整を行った。
IACセグメンテーションにおけるMAEプレトレーニング ViT の意義について検討し,臨床的意義について検討した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Vision Transformers (ViTs) have gained significant popularity in the natural image domain but have been less successful in 3D medical image segmentation. Nevertheless, 3D ViTs are particularly interesting for large medical imaging volumes due to their efficient self-supervised training within the masked autoencoder (MAE) framework, which enables the use of imaging data without the need for expensive manual annotations. intracranial arterial calcification (IAC) is an imaging biomarker visible on routinely acquired CT scans linked to neurovascular diseases such as stroke and dementia, and automated IAC quantification could enable their large-scale risk assessment. We pre-train ViTs with MAE and fine-tune them for IAC segmentation for the first time. To develop our models, we use highly heterogeneous data from a large clinical trial, the third International Stroke Trial (IST-3). We evaluate key aspects of MAE pre-trained ViTs in IAC segmentation, and analyse the clinical implications. We show: 1) our calibrated self-supervised ViT beats a strong supervised nnU-Net baseline by 3.2 Dice points, 2) low patch sizes are crucial for ViTs for IAC segmentation and interpolation upsampling with regular convolutions is preferable to transposed convolutions for ViT-based models, and 3) our ViTs increase robustness to higher slice thicknesses and improve risk group classification in a clinical scenario by 46%. Our code is available online.
- Abstract(参考訳): ヴィジュアルトランスフォーマー(ViT)は、自然画像領域で大きな人気を得ているが、3D画像のセグメンテーションではあまり成功していない。
にもかかわらず、3D ViTはマスク付きオートエンコーダ(MAE)フレームワーク内で、高価な手動アノテーションを必要とせず、画像データの使用を可能にする効率的な自己教師型トレーニングのため、大きな医療画像量にとって特に興味深い。
頭蓋内動脈石灰化(IAC)は、脳卒中や認知症などの神経血管疾患に関連する日常的に取得されたCTスキャンで見られる画像バイオマーカーであり、自動IAC定量化により、大規模なリスク評価が可能になる。
はじめてIACセグメンテーションのために,MAEを用いてVTを事前訓練し,微調整を行った。
第3回国際ストロークトライアル(IST-3)を実施。
IACセグメンテーションにおけるMAEプレトレーニング ViT の意義について検討し,臨床的意義について検討した。
以下に示す。
1) 校正自己監督型VTは、強い教師付きnnU-Netベースラインを3.2Diceポイントで打ち負かす。
2) IACセグメンテーションや補間アップサンプリングのためのViTではパッチサイズが小さいことが重要であり、通常の畳み込みによる補間アップサンプリングは、ViTベースモデルの転置畳み込みよりも好ましい。
3) 臨床シナリオでは, 高いスライス厚にロバスト性を高め, リスクグループ分類を46%改善した。
私たちのコードはオンラインで利用可能です。
関連論文リスト
- Diff3Dformer: Leveraging Slice Sequence Diffusion for Enhanced 3D CT Classification with Transformer Networks [5.806035963947936]
拡散型3次元視覚変換器(Diff3Dformer)を提案する。
本手法は, 肺CTの2種類の小さなデータセットに対して, 改良された性能を示す。
論文 参考訳(メタデータ) (2024-06-24T23:23:18Z) - TriSAM: Tri-Plane SAM for zero-shot cortical blood vessel segmentation in VEM images [31.012744937603436]
VEM画像における皮質血管のセグメンテーションに特化して設計された,第1級パブリックベンチマークであるBvEMを紹介する。
私たちのBvEMベンチマークは、成体マウス、マカク、ヒトの3匹の哺乳類のvEM画像量に基づいています。
我々は,TriSAMと呼ばれる,強力なセグメンテーションモデルSAMを3次元セグメンテーションに活用したゼロショット皮質血管セグメンテーション法を開発した。
論文 参考訳(メタデータ) (2024-01-25T05:50:48Z) - Weakly supervised segmentation of intracranial aneurysms using a novel 3D focal modulation UNet [0.5106162890866905]
本稿では,新しい3次元焦点変調UNetであるFocalSegNetを提案する。
UIA検出では偽陽性率は0.21で感度は0.80であった。
論文 参考訳(メタデータ) (2023-08-06T03:28:08Z) - 3DSAM-adapter: Holistic adaptation of SAM from 2D to 3D for promptable tumor segmentation [52.699139151447945]
医用画像の領域分割を行うために, SAMを2次元から3次元に変換する新しい適応法を提案する。
本モデルでは, 腎腫瘍, 膵腫瘍, 大腸癌の3つのタスクのうち8.25%, 29.87%, 10.11%の3つのタスクにおいて, ドメイン・オブ・ザ・アーティヴ・メディカル・イメージ・セグメンテーション・モデルより優れ, 肝腫瘍セグメンテーションでも同様の性能が得られる。
論文 参考訳(メタデータ) (2023-06-23T12:09:52Z) - Data-Efficient Vision Transformers for Multi-Label Disease
Classification on Chest Radiographs [55.78588835407174]
視覚変換器(ViT)は一般的な画像の分類性能が高いにもかかわらず、このタスクには適用されていない。
ViTは、畳み込みではなくパッチベースの自己アテンションに依存しており、CNNとは対照的に、ローカル接続に関する事前の知識は存在しない。
以上の結果から,ViTとCNNのパフォーマンスはViTの利点に匹敵するものの,DeiTsはトレーニング用に適度に大規模なデータセットが利用可能であれば,前者よりも優れることがわかった。
論文 参考訳(メタデータ) (2022-08-17T09:07:45Z) - Self-supervised 3D anatomy segmentation using self-distilled masked
image transformer (SMIT) [2.7298989068857487]
自己教師型学習は、畳み込みネットワークを用いた医用画像のセグメンテーションに成功している。
我々は、我々のアプローチがより正確で、他のプリテキストタスクよりも微調整データセットを少なくする必要があることを示した。
論文 参考訳(メタデータ) (2022-05-20T17:55:14Z) - Deep Q-Network-Driven Catheter Segmentation in 3D US by Hybrid
Constrained Semi-Supervised Learning and Dual-UNet [74.22397862400177]
本稿では,教師付き学習手法よりも少ないアノテーションを要求できる新しいカテーテルセグメンテーション手法を提案する。
提案手法では,Voxelレベルのアノテーションを避けるために,深層Q学習を事前局所化ステップとみなす。
検出されたカテーテルでは、パッチベースのDual-UNetを使用してカテーテルを3Dボリュームデータに分割する。
論文 参考訳(メタデータ) (2020-06-25T21:10:04Z) - A Global Benchmark of Algorithms for Segmenting Late Gadolinium-Enhanced
Cardiac Magnetic Resonance Imaging [90.29017019187282]
現在世界最大の心臓LGE-MRIデータセットである154個の3D LGE-MRIを用いた「2018 left Atrium Challenge」。
技術および生物学的指標を用いた提案アルゴリズムの解析を行った。
その結果, 最上部法は93.2%, 平均表面は0.7mmであった。
論文 参考訳(メタデータ) (2020-04-26T08:49:17Z) - Volumetric Attention for 3D Medical Image Segmentation and Detection [53.041572035020344]
3次元医用画像のセグメンテーションと検出のためのボリュームアテンション(VA)モジュールを提案する。
VAアテンションはビデオ処理の最近の進歩にインスパイアされ、2.5Dネットワークはz方向のコンテキスト情報を活用することができる。
そのMask R-CNNへの統合は、肝腫瘍(LiTS)チャレンジにおける最先端のパフォーマンスを可能にすることが示されている。
論文 参考訳(メタデータ) (2020-04-04T18:55:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。