論文の概要: CorticalFlow$^{++}$: Boosting Cortical Surface Reconstruction Accuracy,
Regularity, and Interoperability
- arxiv url: http://arxiv.org/abs/2206.06598v1
- Date: Tue, 14 Jun 2022 05:23:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-15 14:04:58.796565
- Title: CorticalFlow$^{++}$: Boosting Cortical Surface Reconstruction Accuracy,
Regularity, and Interoperability
- Title(参考訳): corticalflow$^{++}$:皮質表面再構成精度の向上、規則性、相互運用性
- Authors: Rodrigo Santa Cruz, L\'eo Lebrat, Darren Fu, Pierrick Bourgeat, Jurgen
Fripp, Clinton Fookes, Olivier Salvado
- Abstract要約: このタスクを数時間から数秒に短縮するために、改良されたディープラーニングアプローチが導入されている。
本稿では,既存の表面分析ツールとの相互運用性と精度向上のための3つの改良点を提案する。
提案した変更は、再構成時間とGPUメモリ要件をほとんど変更することなく、より幾何的精度と表面の規則性を提供する。
- 参考スコア(独自算出の注目度): 19.79686539414599
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The problem of Cortical Surface Reconstruction from magnetic resonance
imaging has been traditionally addressed using lengthy pipelines of image
processing techniques like FreeSurfer, CAT, or CIVET. These frameworks require
very long runtimes deemed unfeasible for real-time applications and unpractical
for large-scale studies. Recently, supervised deep learning approaches have
been introduced to speed up this task cutting down the reconstruction time from
hours to seconds. Using the state-of-the-art CorticalFlow model as a blueprint,
this paper proposes three modifications to improve its accuracy and
interoperability with existing surface analysis tools, while not sacrificing
its fast inference time and low GPU memory consumption. First, we employ a more
accurate ODE solver to reduce the diffeomorphic mapping approximation error.
Second, we devise a routine to produce smoother template meshes avoiding mesh
artifacts caused by sharp edges in CorticalFlow's convex-hull based template.
Last, we recast pial surface prediction as the deformation of the predicted
white surface leading to a one-to-one mapping between white and pial surface
vertices. This mapping is essential to many existing surface analysis tools for
cortical morphometry. We name the resulting method CorticalFlow$^{++}$. Using
large-scale datasets, we demonstrate the proposed changes provide more
geometric accuracy and surface regularity while keeping the reconstruction time
and GPU memory requirements almost unchanged.
- Abstract(参考訳): 磁気共鳴イメージングによる皮質表面再構成の問題は、伝統的にFreeSurfer、CAT、CIVETといった画像処理技術の長いパイプラインを用いて解決されてきた。
これらのフレームワークは、リアルタイムアプリケーションでは実現不可能な非常に長いランタイムを必要とし、大規模な研究では実用的ではない。
近年,このタスクを数時間から数秒に短縮するために,教師付きディープラーニングアプローチが導入されている。
本稿では,最新のCorticalFlowモデルを青写真として使用し,高速な推論時間と低GPUメモリ消費を犠牲にすることなく,既存の表面分析ツールとの精度と相互運用性を改善する3つの修正を提案する。
まず、微分同相写像近似誤差を低減するためにより正確なODEソルバを用いる。
第二に、CorticalFlowの凸ハルベースのテンプレートにおいて、鋭いエッジによるメッシュアーチファクトを回避するために、よりスムーズなテンプレートメッシュを生成するルーチンを考案する。
最後に,Pial表面の予測を予測された白色表面の変形として再考し,白面とPial表面の頂点を1対1でマッピングした。
このマッピングは、皮質形態計測のための既存の多くの表面分析ツールに不可欠である。
得られたメソッドを CorticalFlow$^{++}$ とします。
大規模データセットを用いて,提案手法は再構成時間とgpuメモリ要件をほぼ変更することなく,幾何学的精度と表面規則性の向上をもたらすことを実証する。
関連論文リスト
- ND-SDF: Learning Normal Deflection Fields for High-Fidelity Indoor Reconstruction [50.07671826433922]
微妙な幾何を同時に復元し、異なる特徴を持つ領域をまたいだ滑らかさを保つことは自明ではない。
そこで我々は,ND-SDFを提案する。ND-SDFは,通常のシーンとそれ以前のシーンの角偏差を表す正規偏向場を学習する。
本手法は, 壁面や床面などのスムーズなテクスチャ構造を得るだけでなく, 複雑な構造の幾何学的詳細も保存する。
論文 参考訳(メタデータ) (2024-08-22T17:59:01Z) - DynoSurf: Neural Deformation-based Temporally Consistent Dynamic Surface Reconstruction [93.18586302123633]
本稿では3次元点雲列から時間的に一貫した表面を対応なく再構成する問題について考察する。
テンプレート表面表現と学習可能な変形場を統合した教師なし学習フレームワークDynoSurfを提案する。
実験により、DynoSurfの現在の最先端アプローチに対する顕著な優位性を示した。
論文 参考訳(メタデータ) (2024-03-18T08:58:48Z) - Detecting Anomalies in Dynamic Graphs via Memory enhanced Normality [39.476378833827184]
動的グラフにおける異常検出は、グラフ構造と属性の時間的進化によって大きな課題となる。
時空間記憶強調グラフオートエンコーダ(STRIPE)について紹介する。
STRIPEは、AUCスコアが5.8%改善し、トレーニング時間が4.62倍速く、既存の手法よりも大幅に優れている。
論文 参考訳(メタデータ) (2024-03-14T02:26:10Z) - PRS: Sharp Feature Priors for Resolution-Free Surface Remeshing [30.28380889862059]
本稿では,自動特徴検出とリメッシングのためのデータ駆動方式を提案する。
提案アルゴリズムは,Fスコアの26%,知覚値の42%がtextRMSE_textv$である。
論文 参考訳(メタデータ) (2023-11-30T12:15:45Z) - FMapping: Factorized Efficient Neural Field Mapping for Real-Time Dense
RGB SLAM [3.6985351289638957]
本稿では,リアルタイム高密度RGB SLAMにおける色付き点クラウドマップの連続的推定を容易にする,効率的なニューラルネットワークマッピングフレームワークであるFMappingを紹介する。
本稿では,シーン表現のための効果的な因子化手法を提案し,シーン再構成の不確実性を低減するためのスライディングウィンドウ戦略を提案する。
論文 参考訳(メタデータ) (2023-06-01T11:51:46Z) - Temporal Subsampling Diminishes Small Spatial Scales in Recurrent Neural
Network Emulators of Geophysical Turbulence [0.0]
しばしば見過ごされる処理ステップがエミュレータの予測品質にどのように影響するかを検討する。
1)空間ベクトル自己回帰(NVAR)の形式、(2)エコー状態ネットワーク(ESN)の形式。
いずれの場合も、トレーニングデータのサブサンプリングは、数値拡散に類似した小さなスケールでのバイアスの増加につながる。
論文 参考訳(メタデータ) (2023-04-28T21:34:53Z) - Voxurf: Voxel-based Efficient and Accurate Neural Surface Reconstruction [142.61256012419562]
本稿では,ボクセルをベースとした表面再構成手法であるVoxurfを提案する。
ボクサーフは,(1)コヒーレントな粗い形状を達成し,細部を連続的に再現する2段階の訓練手順,2)色-幾何学的依存性を維持する2色ネットワーク,3)ボクセル間の情報伝達を促進する階層的幾何学的特徴などを通じて,上記の課題に対処する。
論文 参考訳(メタデータ) (2022-08-26T14:48:02Z) - CorticalFlow: A Diffeomorphic Mesh Deformation Module for Cortical
Surface Reconstruction [18.851541271793085]
CorticalFlowは、ターゲットオブジェクトに対して参照テンプレートを変形させることを学ぶ、新しい幾何学的ディープラーニングモデルである。
脳皮質表面再構成の課題に対して,その性能を実証する。
論文 参考訳(メタデータ) (2022-06-06T06:10:31Z) - Spatial-Separated Curve Rendering Network for Efficient and
High-Resolution Image Harmonization [59.19214040221055]
本稿では,空間分離型曲線描画ネットワーク(S$2$CRNet)を提案する。
提案手法は従来の手法と比較して90%以上のパラメータを減少させる。
提案手法は,既存の手法よりも10ドル以上高速な高解像度画像をリアルタイムにスムーズに処理することができる。
論文 参考訳(メタデータ) (2021-09-13T07:20:16Z) - Learning Deformable Tetrahedral Meshes for 3D Reconstruction [78.0514377738632]
学習に基づく3次元再構成に対応する3次元形状表現は、機械学習とコンピュータグラフィックスにおいてオープンな問題である。
ニューラル3D再構成に関するこれまでの研究は、利点だけでなく、ポイントクラウド、ボクセル、サーフェスメッシュ、暗黙の関数表現といった制限も示していた。
Deformable Tetrahedral Meshes (DefTet) を, ボリューム四面体メッシュを再構成問題に用いるパラメータ化として導入する。
論文 参考訳(メタデータ) (2020-11-03T02:57:01Z) - Extrapolation for Large-batch Training in Deep Learning [72.61259487233214]
我々は、バリエーションのホストが、我々が提案する統一されたフレームワークでカバー可能であることを示す。
本稿では,この手法の収束性を証明し,ResNet,LSTM,Transformer上での経験的性能を厳格に評価する。
論文 参考訳(メタデータ) (2020-06-10T08:22:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。