論文の概要: SynthStrip: Skull-Stripping for Any Brain Image
- arxiv url: http://arxiv.org/abs/2203.09974v1
- Date: Fri, 18 Mar 2022 14:08:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-21 18:17:44.252417
- Title: SynthStrip: Skull-Stripping for Any Brain Image
- Title(参考訳): SynthStrip:どんな脳画像でもスクリッピングできる
- Authors: Andrew Hoopes, Jocelyn S. Mora, Adrian V. Dalca, Bruce Fischl, Malte
Hoffmann
- Abstract要約: 我々は,学習に基づく迅速な脳抽出ツールであるSynthStripを紹介した。
解剖学的セグメンテーションを活用することで、SynthStripは、解剖学、強度分布、および医療画像の現実的な範囲をはるかに超える人工的なトレーニングデータセットを生成する。
一般的な頭蓋骨切断ベースラインよりも精度が大幅に向上した。
- 参考スコア(独自算出の注目度): 7.846209440615028
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The removal of non-brain signal from magnetic resonance imaging (MRI) data,
known as skull-stripping, is an integral component of many neuroimage analysis
streams. Despite their abundance, popular classical skull-stripping methods are
usually tailored to images with specific acquisition properties, namely
near-isotropic resolution and T1-weighted (T1w) MRI contrast, which are
prevalent in research settings. As a result, existing tools tend to adapt
poorly to other image types, such as stacks of thick slices acquired with fast
spin-echo (FSE) MRI that are common in the clinic. While learning-based
approaches for brain extraction have gained traction in recent years, these
methods face a similar burden, as they are only effective for image types seen
during the training procedure. To achieve robust skull-stripping across a
landscape of protocols, we introduce SynthStrip, a rapid, learning-based
brain-extraction tool. By leveraging anatomical segmentations to generate an
entirely synthetic training dataset with anatomies, intensity distributions,
and artifacts that far exceed the realistic range of medical images, SynthStrip
learns to successfully generalize to a variety of real acquired brain images,
removing the need for training data with target contrasts. We demonstrate the
efficacy of SynthStrip for a diverse set of image acquisitions and resolutions
across subject populations, ranging from newborn to adult. We show substantial
improvements in accuracy over popular skull-stripping baselines - all with a
single trained model. Our method and labeled evaluation data are available at
https://w3id.org/synthstrip.
- Abstract(参考訳): 磁気共鳴画像(MRI)データからの非脳信号の除去は頭蓋骨ストリッピングと呼ばれ、多くの神経画像解析ストリームの不可欠な構成要素である。
その豊富さにもかかわらず、一般的な古典的な頭蓋骨切断法は、通常、特定の取得特性を持つ画像、すなわち、研究環境では一般的なT1強調(T1w)MRIコントラストに適合する。
その結果、既存のツールは、診療所で一般的なFSE(Fast spin-echo)MRIで取得した厚いスライスのスタックなど、他の画像タイプに適応しにくい傾向にある。
近年、学習に基づく脳抽出のアプローチが注目されているが、これらの手法は訓練中の画像タイプにのみ有効であるため、同様の負担に直面している。
プロトコルのランドスケープを横断する堅牢な頭蓋骨切断を実現するために,学習ベースの迅速な脳抽出ツールであるSynthStripを紹介した。
解剖学的セグメンテーションを活用して、解剖学、強度分布、および医療画像の現実的な範囲をはるかに超えた人工的なトレーニングデータセットを生成することで、SynthStripは、さまざまな実際の脳画像への一般化を成功させることを学び、ターゲットのコントラストによるトレーニングデータの必要性を取り除く。
本稿では,synthstripが新生児から成人まで多種多様な画像取得と解決に有効であることを示す。
一般的な頭蓋骨採取ベースラインよりも精度が大幅に向上しています。
当社のメソッドとラベル付き評価データは、https://w3id.org/synthstripで入手できます。
関連論文リスト
- A Unified Model for Compressed Sensing MRI Across Undersampling Patterns [69.19631302047569]
ディープニューラルネットワークは、アンダーサンプル計測から高忠実度画像を再構成する大きな可能性を示している。
我々のモデルは、離散化に依存しないアーキテクチャであるニューラル演算子に基づいている。
我々の推論速度は拡散法よりも1,400倍速い。
論文 参考訳(メタデータ) (2024-10-05T20:03:57Z) - Towards General Text-guided Image Synthesis for Customized Multimodal Brain MRI Generation [51.28453192441364]
マルチモーダル脳磁気共鳴(MR)イメージングは神経科学や神経学において不可欠である。
現在のMR画像合成アプローチは、通常、特定のタスクのための独立したデータセットで訓練される。
テキスト誘導ユニバーサルMR画像合成モデルであるTUMSynについて述べる。
論文 参考訳(メタデータ) (2024-09-25T11:14:47Z) - Psychometry: An Omnifit Model for Image Reconstruction from Human Brain Activity [60.983327742457995]
人間の脳活動から見るイメージを再構築することで、人間とコンピュータのビジョンをBrain-Computer Interfaceを通して橋渡しする。
異なる被験者から得られた機能的磁気共鳴イメージング(fMRI)による画像再構成のための全能モデルであるサイコメトリを考案した。
論文 参考訳(メタデータ) (2024-03-29T07:16:34Z) - Segment anything model (SAM) for brain extraction in fMRI studies [0.0]
我々は頭蓋骨のアーティファクトを除去することで脳のセグメンテーションを神経画像化するためのセグメントモデル(SAM)を用いる。
実験の結果は、カスタムな医用画像データセットをトレーニングすることなく、神経画像の自動分割アルゴリズムを用いて探索する有望な結果を示した。
論文 参考訳(メタデータ) (2024-01-09T06:25:09Z) - FAST-AID Brain: Fast and Accurate Segmentation Tool using Artificial
Intelligence Developed for Brain [0.8376091455761259]
ヒト脳の132領域への高速かつ正確なセグメンテーションのための新しい深層学習法を提案する。
提案モデルは、効率的なU-Netライクなネットワークと、異なるビューと階層関係の交差点の利点を利用する。
提案手法は,画像の事前処理や性能低下を伴わずに頭蓋骨や他の人工物を含む脳MRIデータに適用することができる。
論文 参考訳(メタデータ) (2022-08-30T16:06:07Z) - Subject-Specific Lesion Generation and Pseudo-Healthy Synthesis for
Multiple Sclerosis Brain Images [1.7328025136996081]
局所病変の特徴をモデル化するための新しい生成法を提案する。
健康な画像に合成病変を生成し、病理画像から被写体特異的な擬似健康画像を合成することができる。
提案手法は,脳画像分割ネットワークを訓練するための合成画像を生成するデータ拡張モジュールとして利用することができる。
論文 参考訳(メタデータ) (2022-08-03T15:12:55Z) - Robust Segmentation of Brain MRI in the Wild with Hierarchical CNNs and
no Retraining [1.0499611180329802]
クリニックで取得した脳MRIスキャンの振り返り分析は、研究データセットよりもはるかに大きなサンプルサイズを持つ神経画像研究を可能にする可能性がある。
画像分割のための畳み込みニューラルネットワーク(CNN)と領域ランダム化の最近の進歩は、大規模な臨床MRIの形態計測を可能にする可能性がある。
一般的にSynthSegは頑健であるが,低信号-雑音比,組織コントラストの低いスキャンではフェールすることが多い。
条件付きセグメンテーションとCNNの階層構造を用いてこれらの問題を緩和する新しい手法であるSynthSeg+を提案する。
論文 参考訳(メタデータ) (2022-03-03T19:18:28Z) - Cross-Modality Neuroimage Synthesis: A Survey [71.27193056354741]
マルチモダリティイメージングは、疾患の診断を改善し、解剖学的特性を持つ組織における相違を明らかにする。
完全な整列とペアの多モードニューロイメージングデータの存在は、脳研究においてその効果を証明している。
もう一つの解決策は、教師なしまたは弱教師なしの学習方法を探究し、欠落した神経画像データを合成することである。
論文 参考訳(メタデータ) (2022-02-14T19:29:08Z) - Incremental Cross-view Mutual Distillation for Self-supervised Medical
CT Synthesis [88.39466012709205]
本稿では,スライス間の分解能を高めるために,新しい医療スライスを構築した。
臨床実践において, 根本・中間医療スライスは常に欠落していることを考慮し, 相互蒸留の段階的相互蒸留戦略を導入する。
提案手法は,最先端のアルゴリズムよりも明確なマージンで優れる。
論文 参考訳(メタデータ) (2021-12-20T03:38:37Z) - SynthMorph: learning contrast-invariant registration without acquired
images [8.0963891430422]
画像データを取得せずに画像登録を学習するための戦略を導入する。
この戦略は任意のMRIコントラストの堅牢かつ正確な登録を可能にする。
論文 参考訳(メタデータ) (2020-04-21T20:29:39Z) - Pathological Retinal Region Segmentation From OCT Images Using Geometric
Relation Based Augmentation [84.7571086566595]
本稿では,幾何学と形状の内在的関係を共同で符号化することで,従来のGANベースの医用画像合成法よりも優れた手法を提案する。
提案手法は,取得手順の異なる画像を有する公開RETOUCHデータセット上で,最先端のセグメンテーション手法より優れている。
論文 参考訳(メタデータ) (2020-03-31T11:50:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。