論文の概要: Search Wide, Focus Deep: Automated Fetal Brain Extraction with Sparse Training Data
- arxiv url: http://arxiv.org/abs/2410.20532v2
- Date: Tue, 29 Oct 2024 17:36:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-30 13:41:18.186924
- Title: Search Wide, Focus Deep: Automated Fetal Brain Extraction with Sparse Training Data
- Title(参考訳): サーチワイド、フォーカスディープ:スパーストレーニングデータを用いた胎児脳自動抽出
- Authors: Javid Dadashkarimi, Valeria Pena Trujillo, Camilo Jaimes, Lilla Zöllei, Malte Hoffmann,
- Abstract要約: 本稿では,スパースな合成ラベルで訓練されたネットワークにおいて,偽陽性を低減するテストタイム戦略を提案する。
我々は、少数の胎児脳ラベルマップから得られた合成画像を用いて、異なるウィンドウサイズでモデルを訓練する。
本研究の枠組みは, トリメスター胎児のHASTE検査における最先端脳抽出法と一致した。
- 参考スコア(独自算出の注目度): 1.0252723257176566
- License:
- Abstract: Automated fetal brain extraction from full-uterus MRI is a challenging task due to variable head sizes, orientations, complex anatomy, and prevalent artifacts. While deep-learning (DL) models trained on synthetic images have been successful in adult brain extraction, adapting these networks for fetal MRI is difficult due to the sparsity of labeled data, leading to increased false-positive predictions. To address this challenge, we propose a test-time strategy that reduces false positives in networks trained on sparse, synthetic labels. The approach uses a breadth-fine search (BFS) to identify a subvolume likely to contain the fetal brain, followed by a deep-focused sliding window (DFS) search to refine the extraction, pooling predictions to minimize false positives. We train models at different window sizes using synthetic images derived from a small number of fetal brain label maps, augmented with random geometric shapes. Each model is trained on diverse head positions and scales, including cases with partial or no brain tissue. Our framework matches state-of-the-art brain extraction methods on clinical HASTE scans of third-trimester fetuses and exceeds them by up to 5\% in terms of Dice in the second trimester as well as EPI scans across both trimesters. Our results demonstrate the utility of a sliding-window approach and combining predictions from several models trained on synthetic images, for improving brain-extraction accuracy by progressively refining regions of interest and minimizing the risk of missing brain mask slices or misidentifying other tissues as brain.
- Abstract(参考訳): 完全子宮MRIから胎児の脳を自動的に抽出することは、頭の大きさ、方向、複雑な解剖学、そして一般的な人工物によって難しい課題である。
人工脳画像に基づいて訓練された深層学習(DL)モデルは成人脳の抽出に成功しているが、ラベル付きデータの拡散により胎児MRIにこれらのネットワークを適用することは困難であり、偽陽性の予測が増大する。
この課題に対処するために、スパースな合成ラベルで訓練されたネットワークにおいて、偽陽性を減らすテストタイム戦略を提案する。
このアプローチでは、胎児の脳を含む可能性のあるサブボリュームを特定するために、幅広の探索(BFS)を使用し、続いて、抽出を洗練するためのディープフォーカススライディングウィンドウ(DFS)探索を行い、偽陽性を最小化するために予測をプールする。
我々は、少数の胎児脳ラベルマップから得られた合成画像を用いて、異なるウィンドウサイズでモデルを訓練し、ランダムな幾何学的形状で拡張する。
各モデルは、部分的または非部分的な脳組織を含む様々な頭の位置とスケールで訓練される。
本フレームワークは,第2三期におけるDice,および両三期におけるEPIスキャンにおいて,第3三期胎児の臨床HASTEスキャンの最先端脳抽出法と一致し,最大5倍の値を示した。
本研究は, 興味領域を段階的に精製し, 欠損した脳マスクスライスや他の組織を脳と誤識別するリスクを最小化することにより, 脳の抽出精度を向上させるために, 合成画像上で訓練された複数のモデルからの予測とスライディングウインドウアプローチの有用性を実証した。
関連論文リスト
- Knowledge-Guided Prompt Learning for Lifespan Brain MR Image Segmentation [53.70131202548981]
本稿では,脳MRIにKGPL(Knowledge-Guided Prompt Learning)を用いた2段階のセグメンテーションフレームワークを提案する。
具体的には,大規模データセットと準最適ラベルを用いたトレーニング前セグメンテーションモデルについて述べる。
知識的プロンプトの導入は、解剖学的多様性と生物学的プロセスの間の意味的関係を捉えている。
論文 参考訳(メタデータ) (2024-07-31T04:32:43Z) - Self-supervised Brain Lesion Generation for Effective Data Augmentation of Medical Images [0.9626666671366836]
本稿では,脳病変分割モデルのトレーニングのための新しいサンプルを効率よく生成するフレームワークを提案する。
まず, 対向型自己エンコーダに基づく病変発生器を自己管理的に訓練する。
次に,新しい画像合成アルゴリズムであるSoft Poisson Blendingを用いて,合成病変と脳画像のシームレスな結合を行う。
論文 参考訳(メタデータ) (2024-06-21T01:53:12Z) - Fetal-BET: Brain Extraction Tool for Fetal MRI [4.214523989654048]
約72,000個の胎児脳MRI画像の注釈付きデータセットを構築した。
このデータセットを用いて、U-Netスタイルアーキテクチャのパワーを利用してディープラーニング手法を開発し、検証した。
本手法では,マルチコントラスト(マルチシーケンス)胎児MRIデータからの豊富な情報を活用し,胎児の脳構造を正確に把握する。
論文 参考訳(メタデータ) (2023-10-02T18:14:23Z) - Tissue Segmentation of Thick-Slice Fetal Brain MR Scans with Guidance
from High-Quality Isotropic Volumes [52.242103848335354]
本稿では,高品位等方性ボリュームから学習した知識を高密度スライススキャンの正確な組織セグメント化のために効率的に伝達するC2DA-Netを提案する。
我々のC2DA-Netは、注釈のない厚いスライススキャンで組織分画をガイドするために、注釈付き等方性ボリュームの小さなセットを十分に利用できる。
論文 参考訳(メタデータ) (2023-08-13T12:51:15Z) - Patched Diffusion Models for Unsupervised Anomaly Detection in Brain MRI [55.78588835407174]
本稿では,正常脳解剖のパッチベース推定法として拡散モデルの生成タスクを再構築する手法を提案する。
腫瘍と多発性硬化症について検討し,既存のベースラインと比較して25.1%の改善がみられた。
論文 参考訳(メタデータ) (2023-03-07T09:40:22Z) - CAS-Net: Conditional Atlas Generation and Brain Segmentation for Fetal
MRI [10.127399319119911]
本研究では、条件付きアトラスを同時に生成し、脳組織分節を予測できる新しいネットワーク構造を提案する。
提案手法は,Human Connectome Projectから253名の被験者を対象に,実験・評価を行った。
論文 参考訳(メタデータ) (2022-05-17T11:23:02Z) - Learning to segment fetal brain tissue from noisy annotations [6.456673654519456]
自動胎児脳組織分節は、この臨界段階における脳の発達の定量的評価を高めることができる。
深層学習法は、医用画像のセグメンテーションにおける最先端の手法であり、また脳セグメンテーションにおける印象的な成果も達成している。
しかし、このタスクを実行するためのディープラーニングモデルの効果的なトレーニングには、一過性胎児脳構造の急速な発達を表すために、多数のトレーニングイメージが必要である。
論文 参考訳(メタデータ) (2022-03-25T21:22:24Z) - SynthStrip: Skull-Stripping for Any Brain Image [7.846209440615028]
我々は,学習に基づく迅速な脳抽出ツールであるSynthStripを紹介した。
解剖学的セグメンテーションを活用することで、SynthStripは、解剖学、強度分布、および医療画像の現実的な範囲をはるかに超える人工的なトレーニングデータセットを生成する。
一般的な頭蓋骨切断ベースラインよりも精度が大幅に向上した。
論文 参考訳(メタデータ) (2022-03-18T14:08:20Z) - Cross-Modality Neuroimage Synthesis: A Survey [71.27193056354741]
マルチモダリティイメージングは、疾患の診断を改善し、解剖学的特性を持つ組織における相違を明らかにする。
完全な整列とペアの多モードニューロイメージングデータの存在は、脳研究においてその効果を証明している。
もう一つの解決策は、教師なしまたは弱教師なしの学習方法を探究し、欠落した神経画像データを合成することである。
論文 参考訳(メタデータ) (2022-02-14T19:29:08Z) - Interpretation of 3D CNNs for Brain MRI Data Classification [56.895060189929055]
T1脳MRIにおける拡散テンソル画像の男女差について,これまでの知見を拡張した。
ボクセルの3次元CNN解釈を3つの解釈法の結果と比較する。
論文 参考訳(メタデータ) (2020-06-20T17:56:46Z) - Hybrid Attention for Automatic Segmentation of Whole Fetal Head in
Prenatal Ultrasound Volumes [52.53375964591765]
胎児の頭部全体を米国全巻に分割する,最初の完全自動化ソリューションを提案する。
セグメント化タスクは、まずエンコーダ-デコーダディープアーキテクチャの下で、エンドツーエンドのボリュームマッピングとして定式化される。
次に,セグメンタとハイブリットアテンションスキーム(HAS)を組み合わせることで,識別的特徴を選択し,非情報量的特徴を抑える。
論文 参考訳(メタデータ) (2020-04-28T14:43:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。