論文の概要: Deep Learning Framework for Real-time Fetal Brain Segmentation in MRI
- arxiv url: http://arxiv.org/abs/2205.01675v1
- Date: Mon, 2 May 2022 20:43:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-05 15:13:51.929047
- Title: Deep Learning Framework for Real-time Fetal Brain Segmentation in MRI
- Title(参考訳): MRIにおけるリアルタイム胎児脳分割のためのディープラーニングフレームワーク
- Authors: Razieh Faghihpirayesh, Davood Karimi, Deniz Erdogmus, Ali Gholipour
- Abstract要約: 様々なディープニューラルネットワークモデルの高速化性能を解析する。
我々は、高解像度で空間の詳細と低解像度で抽出された文脈特徴を組み合わせた、象徴的な小さな畳み込みニューラルネットワークを考案した。
我々は、手動で胎児のMRIスライスをラベル付けした8つの最先端ネットワークと同様に、我々のモデルを訓練した。
- 参考スコア(独自算出の注目度): 15.530500862944818
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fetal brain segmentation is an important first step for slice-level motion
correction and slice-to-volume reconstruction in fetal MRI. Fast and accurate
segmentation of the fetal brain on fetal MRI is required to achieve real-time
fetal head pose estimation and motion tracking for slice re-acquisition and
steering. To address this critical unmet need, in this work we analyzed the
speed-accuracy performance of a variety of deep neural network models, and
devised a symbolically small convolutional neural network that combines spatial
details at high resolution with context features extracted at lower
resolutions. We used multiple branches with skip connections to maintain high
accuracy while devising a parallel combination of convolution and pooling
operations as an input downsampling module to further reduce inference time. We
trained our model as well as eight alternative, state-of-the-art networks with
manually-labeled fetal brain MRI slices and tested on two sets of normal and
challenging test cases. Experimental results show that our network achieved the
highest accuracy and lowest inference time among all of the compared
state-of-the-art real-time segmentation methods. We achieved average Dice
scores of 97.99\% and 84.04\% on the normal and challenging test sets,
respectively, with an inference time of 3.36 milliseconds per image on an
NVIDIA GeForce RTX 2080 Ti. Code, data, and the trained models are available at
https://github.com/bchimagine/real_time_fetal_brain_segmentation.
- Abstract(参考訳): 胎児脳分節は胎児MRIにおけるスライスレベルの運動補正とスライス・ツー・ボリューム再構成のための重要な第1ステップである。
胎児MRIにおける胎児脳の高速かつ正確なセグメンテーションは、スライス再獲得とステアリングのためのリアルタイム胎児頭部ポーズ推定と運動追跡を実現するために必要である。
そこで本研究では,様々な深層ニューラルネットワークモデルの速度精度を解析し,高分解能の空間的詳細と低分解能で抽出された文脈特徴を組み合わせた,シンボル的に小さい畳み込みニューラルネットワークを考案した。
入力ダウンサンプリングモジュールとして畳み込みとプーリング操作の並列組み合わせを考案し,高い精度を維持するためにスキップ接続を持つ複数のブランチを用いた。
私たちは、手動で胎児のMRIスライスをラベル付けした8種類の最先端ネットワークをトレーニングし、正常な2種類のテストケースでテストしました。
実験の結果, 実時間分割法と比較した結果, ネットワークの精度と推定時間が最も高いことがわかった。
nvidia geforce rtx 2080 ti で平均 dice スコア 97.99\% と 84.04\% をそれぞれ3.36ミリ秒の推論時間で達成した。
コード、データ、トレーニングされたモデルはhttps://github.com/bchimagine/real_time_fetal_brain_segmentationで利用可能である。
関連論文リスト
- A Unified Model for Compressed Sensing MRI Across Undersampling Patterns [69.19631302047569]
ディープニューラルネットワークは、アンダーサンプル計測から高忠実度画像を再構成する大きな可能性を示している。
我々のモデルは、離散化に依存しないアーキテクチャであるニューラル演算子に基づいている。
我々の推論速度は拡散法よりも1,400倍速い。
論文 参考訳(メタデータ) (2024-10-05T20:03:57Z) - Efficient Slice Anomaly Detection Network for 3D Brain MRI Volume [2.3633885460047765]
現在の異常検出法は, 基準産業データより優れているが, 「正常」 と「異常」の定義の相違により, 医療データに苦慮している。
我々は,ImageNet上で事前学習し,MRIデータセットを2次元スライス特徴抽出器として微調整したモデルを用いたSimple Slice-based Network (SimpleSliceNet) というフレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-28T17:20:56Z) - A self-attention model for robust rigid slice-to-volume registration of functional MRI [4.615338063719135]
fMRIスキャン中の頭部の動きは、歪み、偏りの分析、コストの増加をもたらす。
本稿では,2次元fMRIスライスを3次元参照ボリュームに整列するエンド・ツー・エンドSVRモデルを提案する。
本モデルは,最先端のディープラーニング手法と比較して,アライメント精度の面での競合性能を実現する。
論文 参考訳(メタデータ) (2024-04-06T08:02:18Z) - Lightweight 3D Convolutional Neural Network for Schizophrenia diagnosis
using MRI Images and Ensemble Bagging Classifier [1.487444917213389]
本稿では,MRI画像を用いた統合失調症診断のための軽量3次元畳み込みニューラルネットワーク(CNN)フレームワークを提案する。
精度は92.22%、感度94.44%、特異度90%、精度90.43%、リコール94.44%、F1スコア92.39%、G平均92.19%である。
論文 参考訳(メタデータ) (2022-11-05T10:27:37Z) - GLEAM: Greedy Learning for Large-Scale Accelerated MRI Reconstruction [50.248694764703714]
アンロールされたニューラルネットワークは、最近最先端の加速MRI再構成を達成した。
これらのネットワークは、物理ベースの一貫性とニューラルネットワークベースの正規化を交互に組み合わせることで、反復最適化アルゴリズムをアンロールする。
我々は,高次元画像設定のための効率的なトレーニング戦略である加速度MRI再構成のためのグレディ・ラーニングを提案する。
論文 参考訳(メタデータ) (2022-07-18T06:01:29Z) - Med-DANet: Dynamic Architecture Network for Efficient Medical Volumetric
Segmentation [13.158995287578316]
我々は,Med-DANetという動的アーキテクチャネットワークを提案し,効率的な精度と効率のトレードオフを実現する。
入力された3次元MRIボリュームのスライス毎に,提案手法は決定ネットワークによってスライス固有の決定を学習する。
提案手法は, 従来の3次元MRI脳腫瘍セグメント化法と比較して, 同等あるいは良好な結果が得られる。
論文 参考訳(メタデータ) (2022-06-14T03:25:58Z) - Automatic size and pose homogenization with spatial transformer network
to improve and accelerate pediatric segmentation [51.916106055115755]
空間変換器ネットワーク(STN)を利用することにより、ポーズとスケール不変の新たなCNNアーキテクチャを提案する。
私たちのアーキテクチャは、トレーニング中に一緒に見積もられる3つのシーケンシャルモジュールで構成されています。
腹部CTスキャナーを用いた腎および腎腫瘍の分節法について検討した。
論文 参考訳(メタデータ) (2021-07-06T14:50:03Z) - DFENet: A Novel Dimension Fusion Edge Guided Network for Brain MRI
Segmentation [0.0]
本稿では,2次元CNNと3次元CNNの特徴を融合させることにより,これらの要件を満たす新しいDFENetを提案する。
提案手法は, 既存の方法よりも頑健で正確であり, バイオメディカルな応用に頼ることができる。
論文 参考訳(メタデータ) (2021-05-17T15:43:59Z) - Fast accuracy estimation of deep learning based multi-class musical
source separation [79.10962538141445]
本稿では,ニューラルネットワークのトレーニングやチューニングを行うことなく,任意のデータセットにおける楽器の分離性を評価する手法を提案する。
理想的な比マスクを持つオラクルの原理に基づいて、我々の手法は最先端のディープラーニング手法の分離性能を推定するための優れたプロキシである。
論文 参考訳(メタデータ) (2020-10-19T13:05:08Z) - Deep Representational Similarity Learning for analyzing neural
signatures in task-based fMRI dataset [81.02949933048332]
本稿では、表現類似度分析(RSA)の深部拡張であるDRSL(Deep Representational similarity Learning)を開発する。
DRSLは、多数の被験者を持つfMRIデータセットにおける様々な認知タスク間の類似性を分析するのに適している。
論文 参考訳(メタデータ) (2020-09-28T18:30:14Z) - 4D Deep Learning for Multiple Sclerosis Lesion Activity Segmentation [49.32653090178743]
我々は,MRIボリュームの履歴を用いて,この問題をフル4次元ディープラーニングに拡張することで,性能が向上するかどうか検討する。
提案手法は, 病変側真陽性率0.84, 病変側偽陽性率0.19で従来手法より優れていた。
論文 参考訳(メタデータ) (2020-04-20T11:41:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。