論文の概要: Neural deformation fields for template-based reconstruction of cortical
surfaces from MRI
- arxiv url: http://arxiv.org/abs/2401.12938v1
- Date: Tue, 23 Jan 2024 17:50:58 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-24 14:57:37.792122
- Title: Neural deformation fields for template-based reconstruction of cortical
surfaces from MRI
- Title(参考訳): MRIによる皮質表面のテンプレートによる再構成のための神経変形場
- Authors: Fabian Bongratz, Anne-Marie Rickmann, Christian Wachinger
- Abstract要約: 本稿では,脳テンプレートからMRIスキャンの皮質表面への変形場を学習するディープメッシュ変形技術であるVox2Cortex-Flowを紹介する。
V2C-Flowは非常に高速なだけでなく、4つの皮質表面を推測するのに2秒もかからない。
V2C-Flowは精度の点で最先端の皮質表面を呈することを示す。
- 参考スコア(独自算出の注目度): 5.4173776411667935
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The reconstruction of cortical surfaces is a prerequisite for quantitative
analyses of the cerebral cortex in magnetic resonance imaging (MRI). Existing
segmentation-based methods separate the surface registration from the surface
extraction, which is computationally inefficient and prone to distortions. We
introduce Vox2Cortex-Flow (V2C-Flow), a deep mesh-deformation technique that
learns a deformation field from a brain template to the cortical surfaces of an
MRI scan. To this end, we present a geometric neural network that models the
deformation-describing ordinary differential equation in a continuous manner.
The network architecture comprises convolutional and graph-convolutional
layers, which allows it to work with images and meshes at the same time.
V2C-Flow is not only very fast, requiring less than two seconds to infer all
four cortical surfaces, but also establishes vertex-wise correspondences to the
template during reconstruction. In addition, V2C-Flow is the first approach for
cortex reconstruction that models white matter and pial surfaces jointly,
therefore avoiding intersections between them. Our comprehensive experiments on
internal and external test data demonstrate that V2C-Flow results in cortical
surfaces that are state-of-the-art in terms of accuracy. Moreover, we show that
the established correspondences are more consistent than in FreeSurfer and that
they can directly be utilized for cortex parcellation and group analyses of
cortical thickness.
- Abstract(参考訳): 脳皮質表面の再構成はMRI(MRI)における大脳皮質の定量的解析の前提条件である。
既存のセグメンテーションに基づく手法では、表面の登録と表面抽出を分離する。
本稿では,脳テンプレートからMRIスキャンの皮質表面への変形場を学習するディープメッシュ変形技術であるVox2Cortex-Flowを紹介する。
この目的のために、変形記述常微分方程式を連続的にモデル化する幾何ニューラルネットワークを提案する。
ネットワークアーキテクチャは畳み込み層とグラフ畳み込み層で構成されており、画像とメッシュを同時に扱うことができる。
V2C-Flowは非常に高速で、4つの皮質表面全てを推測するのに2秒もかからない。
さらに、V2C-Flowは、白質と真珠の表面を共同でモデル化し、それらの交叉を避ける最初のアプローチである。
内部および外部試験データに関する総合的な実験により、V2C-Flowは精度の点で最先端の皮質表面をもたらすことが示された。
さらに, 確立された対応はFreeSurferよりも一貫性が高く, 大脳皮質のパーセレーションや大脳皮質の厚みの集団解析に直接利用できることを示す。
関連論文リスト
- DA-Flow: Dual Attention Normalizing Flow for Skeleton-based Video Anomaly Detection [52.74152717667157]
本稿では,DAM(Dual Attention Module)と呼ばれる軽量モジュールを提案する。
フレームアテンション機構を使用して、最も重要なフレームを識別し、スケルトンアテンション機構を使用して、最小パラメータとフロップで固定されたパーティション間の広範な関係をキャプチャする。
論文 参考訳(メタデータ) (2024-06-05T06:18:03Z) - ReshapeIT: Reliable Shape Interaction with Implicit Template for Anatomical Structure Reconstruction [59.971808117043366]
ReShapeITは、同じカテゴリ内で共有される暗黙のテンプレートフィールドを持つ解剖学的構造を表す。
これにより、インスタンス形状とテンプレート形状との対応性の制約を強化することにより、暗黙テンプレートフィールドが有効なテンプレートを生成する。
テンプレートインタラクションモジュールは、有効なテンプレートシェイプとインスタンスワイドの潜在コードとを相互作用することで、目に見えないシェイプを再構築するために導入される。
論文 参考訳(メタデータ) (2023-12-11T07:09:32Z) - Reconstruction of Cortical Surfaces with Spherical Topology from Infant
Brain MRI via Recurrent Deformation Learning [16.9042503785353]
MRIからの皮質表面再構成(CSR)は、脳の構造と機能を研究する鍵となる。
本稿では,数秒以内に効率よく球面マッピングを行う手法を提案する。
乳児期脳MRIに対するアプローチの有効性を実証し,CSRに重大な課題を提起した。
論文 参考訳(メタデータ) (2023-12-10T20:20:16Z) - NeuSD: Surface Completion with Multi-View Text-to-Image Diffusion [56.98287481620215]
本稿では,対象物の一部のみを捉えた複数の画像から3次元表面再構成を行う手法を提案する。
提案手法は, 表面の可視部分の再構成に神経放射場を用いた表面再構成法と, SDS (Score Distillation Sampling) 方式で事前学習した2次元拡散モデルを用いて, 可観測領域の形状を再現する手法である。
論文 参考訳(メタデータ) (2023-12-07T19:30:55Z) - Neural Vector Fields: Generalizing Distance Vector Fields by Codebooks
and Zero-Curl Regularization [73.3605319281966]
メッシュと暗黙的符号なし距離関数(UDF)を演算する明示的な学習プロセスを採用した新しい3D表現であるNeural Vector Fields (NVF)を提案する。
両NVFを水密化・非水密化・非水密化・非水密化・非水密化・非水密化・非水密化・非水密化・非水密化・クロスドメイン化の4つのシナリオで評価した。
論文 参考訳(メタデータ) (2023-09-04T10:42:56Z) - Joint Reconstruction and Parcellation of Cortical Surfaces [3.9198548406564604]
脳MRI画像からの大脳皮質表面の再構成は、アルツハイマー病(AD)のような神経変性疾患における脳形態解析と皮質シンニングの検出に有用である
本研究では,グラフ分類分岐に基づく2つの選択肢と,新しい汎用的な3次元再構成損失に基づく2つの選択肢を提案し,テンプレート・デフォーメーション・アルゴリズムを改良する。
我々はDiceスコア90.2(グラフ分類分岐)と90.4(復元損失90.4)の高精度なパーセレーションと最先端のサーフェスを同時に達成した。
論文 参考訳(メタデータ) (2022-09-19T11:45:39Z) - Vox2Cortex: Fast Explicit Reconstruction of Cortical Surfaces from 3D
MRI Scans with Geometric Deep Neural Networks [3.364554138758565]
深層学習に基づくアルゴリズムであるVox2Cortexを提案する。
我々は3つの脳MRIデータセットの広範な実験で、我々のメッシュは現場の最先端の方法で再構築されたものと同じくらい正確であることを示した。
論文 参考訳(メタデータ) (2022-03-17T17:06:00Z) - CortexODE: Learning Cortical Surface Reconstruction by Neural ODEs [12.239318066719068]
CortexODEは皮質表面再構成のためのディープラーニングフレームワークである。
自動学習ベースのパイプラインに統合して,表面を6秒以内で効率的に再構築することも可能だ。
実験により,CortexODEに基づくパイプラインは平均幾何誤差が0.2mm未満であることを示す。
論文 参考訳(メタデータ) (2022-02-16T20:57:59Z) - NeuS: Learning Neural Implicit Surfaces by Volume Rendering for
Multi-view Reconstruction [88.02850205432763]
物体やシーンを2次元画像入力から高忠実度に再構成するニュートラルサーフェス(NeuS)を提案する。
DVRやIDRのような既存の神経表面再構成アプローチでは、フォアグラウンドマスクを監督する必要がある。
本研究では,従来のボリュームレンダリング手法が表面再構成に固有の幾何学的誤差を引き起こすことを観察する。
マスクの監督なしでもより正確な表面再構成を実現するため,第一次近似ではバイアスのない新しい定式化を提案する。
論文 参考訳(メタデータ) (2021-06-20T12:59:42Z) - Surface Agnostic Metrics for Cortical Volume Segmentation and Regression [3.1543820811374483]
T2MRI画像から大脳皮質の厚みと曲率を推定する機械学習手法を提案する。
結果は、深層畳み込みニューラルネットワークが、脳の発達段階と病理の幅広い範囲で皮質のメトリクスを予測するための実行可能な選択肢であることを示唆している。
論文 参考訳(メタデータ) (2020-10-04T19:46:04Z) - Deep Modeling of Growth Trajectories for Longitudinal Prediction of
Missing Infant Cortical Surfaces [58.780482825156035]
空間グラフ畳み込みニューラルネットワーク(GCNN)を用いた皮質表面の経時的予測法を提案する。
提案手法は,皮質成長軌跡をモデル化し,複数点の内曲面と外曲面を共同で予測する。
本手法が時間的皮質成長パターンの非線形性を捉えることができることを示す。
論文 参考訳(メタデータ) (2020-09-06T18:46:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。