論文の概要: DeepCERES: A Deep learning method for cerebellar lobule segmentation
using ultra-high resolution multimodal MRI
- arxiv url: http://arxiv.org/abs/2401.12074v2
- Date: Tue, 23 Jan 2024 15:23:03 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-24 12:44:30.599895
- Title: DeepCERES: A Deep learning method for cerebellar lobule segmentation
using ultra-high resolution multimodal MRI
- Title(参考訳): DeepCERES:超高分解能マルチモーダルMRIを用いた小脳小葉セグメンテーションの深層学習法
- Authors: Sergio Morell-Ortega, Marina Ruiz-Perez, Marien Gadea, Roberto
Vivo-Hernando, Gregorio Rubio, Fernando Aparici, Maria de la Iglesia-Vaya,
Gwenaelle Catheline, Pierrick Coup\'e, Jos\'e V. Manj\'on
- Abstract要約: 本稿では,ヒト脳小脳小脳小葉分割法について紹介する。
提案手法は,マルチモーダルおよび超高分解能トレーニングデータセットを用いて小脳小葉のセグメンテーションを改善する。
DeepCERESは、単一のT1 MR画像のみの入力を必要とする科学コミュニティに提案された方法を利用可能にするために開発された。
- 参考スコア(独自算出の注目度): 32.73124984242397
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This paper introduces a novel multimodal and high-resolution human brain
cerebellum lobule segmentation method. Unlike current tools that operate at
standard resolution ($1 \text{ mm}^{3}$) or using mono-modal data, the proposed
method improves cerebellum lobule segmentation through the use of a multimodal
and ultra-high resolution ($0.125 \text{ mm}^{3}$) training dataset. To develop
the method, first, a database of semi-automatically labelled cerebellum lobules
was created to train the proposed method with ultra-high resolution T1 and T2
MR images. Then, an ensemble of deep networks has been designed and developed,
allowing the proposed method to excel in the complex cerebellum lobule
segmentation task, improving precision while being memory efficient. Notably,
our approach deviates from the traditional U-Net model by exploring alternative
architectures. We have also integrated deep learning with classical machine
learning methods incorporating a priori knowledge from multi-atlas
segmentation, which improved precision and robustness. Finally, a new online
pipeline, named DeepCERES, has been developed to make available the proposed
method to the scientific community requiring as input only a single T1 MR image
at standard resolution.
- Abstract(参考訳): 本稿では,新しいマルチモーダル・高分解能ヒト脳小脳セグメンテーション法を提案する。
標準解像度($1 \text{mm}^{3}$)やモノモーダルデータを使用する現在のツールとは異なり、提案手法はマルチモーダルおよび超高解像度($0.125 \text{mm}^{3}$)トレーニングデータセットを用いて小脳小葉のセグメンテーションを改善する。
まず, 超高分解能t1およびt2 mr画像を用いて, 提案法を訓練するために, 半自動ラベル付き小脳小葉のデータベースを作成した。
そして, 複雑な小脳小葉分割課題において, 提案手法が優れていること, メモリ効率を保ちながら精度を向上させるために, 深層ネットワークのアンサンブルを設計, 開発してきた。
特に、私たちのアプローチは、代替アーキテクチャを探求することによって、従来のU-Netモデルから逸脱します。
また,従来の機械学習手法と深層学習を統合し,マルチアトラスセグメンテーションから事前知識を取り入れ,精度と堅牢性を向上した。
最後に、deepceresと呼ばれる新しいオンラインパイプラインが開発され、標準解像度で単一のt1 mr画像のみを入力として必要な科学コミュニティに提案手法を提供する。
関連論文リスト
- A Multimodal Intermediate Fusion Network with Manifold Learning for
Stress Detection [1.2430809884830318]
本稿では,多様体学習に基づく次元減少を伴う中間的マルチモーダル融合ネットワークを提案する。
マルチモーダルネットワークと単調ネットワークの異なるバリエーションについて,様々な次元削減手法を比較した。
多次元スケーリング(MDS)法による中間レベル融合は96.00%の精度で有望な結果を示した。
論文 参考訳(メタデータ) (2024-03-12T21:06:19Z) - DeepThalamus: A novel deep learning method for automatic segmentation of
brain thalamic nuclei from multimodal ultra-high resolution MRI [32.73124984242397]
超高分解能(0.125mm3)での視床核分割のための多モード体積深部ニューラルネットワークの設計と実装を行った。
超高分解能T1,T2,White Matter nulled (WMn) 画像を用いて半自動分割視床核のデータベースを構築した。
ディープラーニングに基づく新しい戦略は、自動セグメンテーションを得るために設計され、その堅牢性とアクカリティを改善するために訓練された。
論文 参考訳(メタデータ) (2024-01-15T14:59:56Z) - Deep Learning-Based Intra Mode Derivation for Versatile Video Coding [65.96100964146062]
本稿では,Deep Learning based intra Mode Derivation (DLIMD) と呼ばれるインテリジェントイントラモード導出法を提案する。
DLIMDのアーキテクチャは、異なる量子化パラメータ設定と、非平方要素を含む可変符号化ブロックに適応するように開発されている。
提案手法は,Versatile Video Coding (VVC) テストモデルを用いて,Y, U, Vコンポーネントの平均ビットレートを2.28%, 1.74%, 2.18%削減できる。
論文 参考訳(メタデータ) (2022-04-08T13:23:59Z) - Cross-Modality Deep Feature Learning for Brain Tumor Segmentation [158.8192041981564]
本稿では, マルチモーダルMRIデータから脳腫瘍を抽出するクロスモーダルディープ・フィーチャーラーニング・フレームワークを提案する。
中心となる考え方は、不十分なデータスケールを補うために、マルチモダリティデータにまたがる豊富なパターンをマイニングすることだ。
on the BraTS benchmarks, this proposed cross-modality deep feature learning framework could effective improve the brain tumor segmentation performance。
論文 参考訳(メタデータ) (2022-01-07T07:46:01Z) - LoRD-Net: Unfolded Deep Detection Network with Low-Resolution Receivers [104.01415343139901]
本稿では,1ビット計測から情報シンボルを復元する「LoRD-Net」というディープ検出器を提案する。
LoRD-Netは、関心のシグナルを回復するためのタスクベースのアーキテクチャである。
無線通信における1ビット信号回復のためのレシーバアーキテクチャの評価を行った。
論文 参考訳(メタデータ) (2021-02-05T04:26:05Z) - MetricUNet: Synergistic Image- and Voxel-Level Learning for Precise CT
Prostate Segmentation via Online Sampling [66.01558025094333]
本稿では,前立腺領域を高速に局在させる第1段階と,前立腺領域を正確に区分する第2段階の2段階のフレームワークを提案する。
マルチタスクネットワークにおけるボクセルワイドサンプリングによる新しいオンラインメトリック学習モジュールを提案する。
本手法は,従来のクロスエントロピー学習法やDice損失学習法と比較して,より代表的なボクセルレベルの特徴を効果的に学習することができる。
論文 参考訳(メタデータ) (2020-05-15T10:37:02Z) - Deep Unfolding Network for Image Super-Resolution [159.50726840791697]
本稿では,学習に基づく手法とモデルに基づく手法の両方を活用する,エンドツーエンドのトレーニング可能なアンフォールディングネットワークを提案する。
提案するネットワークは, モデルベース手法の柔軟性を継承し, 一つのモデルを用いて, 異なるスケール要因に対する, 曖昧でノイズの多い画像の超解像化を行う。
論文 参考訳(メタデータ) (2020-03-23T17:55:42Z) - Unpaired Multi-modal Segmentation via Knowledge Distillation [77.39798870702174]
本稿では,不対向画像分割のための新しい学習手法を提案する。
提案手法では,CTおよびMRI間での畳み込みカーネルの共有により,ネットワークパラメータを多用する。
我々は2つの多クラスセグメンテーション問題に対するアプローチを広範囲に検証した。
論文 参考訳(メタデータ) (2020-01-06T20:03:17Z) - A Genetic Algorithm based Kernel-size Selection Approach for a
Multi-column Convolutional Neural Network [11.040847116812046]
本稿では,畳み込みニューラルネットワークアーキテクチャのハイパーパラメータ(カーネルサイズ)の最適組み合わせを見つけるための遺伝的アルゴリズムに基づく手法を提案する。
本手法は手書き文字と数字の異なる3つの一般的なデータセットで評価される。
論文 参考訳(メタデータ) (2019-12-28T05:37:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。