論文の概要: GOUHFI 2.0: A Next-Generation Toolbox for Brain Segmentation and Cortex Parcellation at Ultra-High Field MRI
- arxiv url: http://arxiv.org/abs/2601.09006v1
- Date: Tue, 13 Jan 2026 22:08:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-15 18:59:20.180661
- Title: GOUHFI 2.0: A Next-Generation Toolbox for Brain Segmentation and Cortex Parcellation at Ultra-High Field MRI
- Title(参考訳): GOUHFI 2.0:超高磁場MRIにおける脳セグメンテーションと皮質パーセレーションのための次世代ツールボックス
- Authors: Marc-Antoine Fortin, Anne Louise Kristoffersen, Paal Erik Goa,
- Abstract要約: GOUHFI 2.0はGOUHFIの更新実装である。
第1部はコントラスト、解像度、フィールド強度、人口にまたがる35のラベルに全脳セグメンテーションを行う。
第2のネットワークは、Desikan-Killiany-Tourville (DKT)プロトコルに従って62のラベルに大脳皮質のパーセレーションを実行する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Ultra-High Field MRI (UHF-MRI) is increasingly used in large-scale neuroimaging studies, yet automatic brain segmentation and cortical parcellation remain challenging due to signal inhomogeneities, heterogeneous contrasts and resolutions, and the limited availability of tools optimized for UHF data. Standard software packages such as FastSurferVINN and SynthSeg+ often yield suboptimal results when applied directly to UHF images, thereby restricting region-based quantitative analyses. To address this need, we introduce GOUHFI 2.0, an updated implementation of GOUHFI that incorporates increased training data variability and additional functionalities, including cortical parcellation and volumetry. GOUHFI 2.0 preserves the contrast- and resolution-agnostic design of the original toolbox while introducing two independently trained 3D U-Net segmentation tasks. The first performs whole-brain segmentation into 35 labels across contrasts, resolutions, field strengths and populations, using a domain-randomization strategy and a training dataset of 238 subjects. Using the same training data, the second network performs cortical parcellation into 62 labels following the Desikan-Killiany-Tourville (DKT) protocol. Across multiple datasets, GOUHFI 2.0 demonstrated improved segmentation accuracy relative to the original toolbox, particularly in heterogeneous cohorts, and produced reliable cortical parcellations. In addition, the integrated volumetry pipeline yielded results consistent with standard volumetric workflows. Overall, GOUHFI 2.0 provides a comprehensive solution for brain segmentation, parcellation and volumetry across field strengths, and constitutes the first deep-learning toolbox enabling robust cortical parcellation at UHF-MRI.
- Abstract(参考訳): 超高磁場MRI(UHF-MRI)は、大規模な神経画像研究でますます使われているが、信号の不均一性、異質なコントラストと解像度、UHFデータに最適化されたツールの限定的利用により、自動脳分割と皮質パーセレーションは難しいままである。
FastSurferVINNやSynthSeg+のような標準ソフトウェアパッケージは、UHF画像に直接適用すると、しばしば準最適結果が得られる。
このニーズに対処するために,GOUHFI 2.0を導入する。GOUHFIは,トレーニングデータの多様性の向上と,大脳皮質のパーセレーションや容積化などの機能追加を取り入れた,GOUHFIの更新実装である。
GOUHFI 2.0はオリジナルのツールボックスのコントラストと解像度に依存しない設計を維持し、独立に訓練された2つのU-Netセグメンテーションタスクを導入した。
1つ目は、ドメインランダム化戦略と238人の被験者のトレーニングデータセットを使用して、コントラスト、解像度、フィールド強度、人口の35のラベルに全脳セグメンテーションを実行する。
同じトレーニングデータを用いて、第2のネットワークは、Desikan-Killiany-Tourville (DKT)プロトコルに従って62ラベルの皮質パーセレーションを実行する。
複数のデータセットにわたって、GOUHFI 2.0は元のツールボックス、特に異種コホートに対するセグメンテーションの精度を向上し、信頼性の高い皮質パーセレーションを生み出した。
さらに、統合ボリュームパイプラインは、標準的なボリュームワークフローと一致した結果を得た。
総合的に、GOUHFI 2.0は脳のセグメンテーション、パーセレーション、体力に対する包括的ソリューションを提供し、UHF-MRIで堅牢な皮質パーセレーションを可能にする最初のディープラーニングツールボックスを構成する。
関連論文リスト
- HUR-MACL: High-Uncertainty Region-Guided Multi-Architecture Collaborative Learning for Head and Neck Multi-Organ Segmentation [16.407150995198105]
頭頸部における多臓器分割のための多臓器協調学習モデルを提案する。
提案手法は,2つの公開データセットと1つのプライベートデータセットに対してSOTA結果を得る。
論文 参考訳(メタデータ) (2026-01-08T05:25:05Z) - Neuromorphic Wireless Split Computing with Multi-Level Spikes [69.73249913506042]
ニューロモルフィックコンピューティングは、スパイキングニューラルネットワーク(SNN)を使用して推論タスクを実行する。
スパイクニューロン間で交換される各スパイクに小さなペイロードを埋め込むことで、エネルギー消費を増大させることなく推論精度を高めることができる。
分割コンピューティング — SNNを2つのデバイスに分割する — は、有望なソリューションだ。
本稿では,マルチレベルSNNを用いたニューロモルフィック無線分割コンピューティングアーキテクチャの総合的研究について述べる。
論文 参考訳(メタデータ) (2024-11-07T14:08:35Z) - Improved Robustness for Deep Learning-based Segmentation of Multi-Center Myocardial Perfusion MRI Datasets Using Data Adaptive Uncertainty-guided Space-time Analysis [0.24285581051793656]
灌流データセットの完全な自動解析により、患者のストレス/レスト研究の迅速かつ客観的な報告が可能になる。
トレーニングデータやソフトウェアやハードウェアのバリエーションが限られているにもかかわらず、マルチセンタデータセットを分析できるディープラーニング技術は、現在進行中の課題である。
提案したDAUGS分析手法は,多心応力灌流データセットのセグメンテーションのためのディープラーニング手法の堅牢性を向上させる可能性を秘めている。
論文 参考訳(メタデータ) (2024-08-09T01:21:41Z) - Leveraging Frequency Domain Learning in 3D Vessel Segmentation [50.54833091336862]
本研究では,Fourier領域学習を3次元階層分割モデルにおけるマルチスケール畳み込みカーネルの代用として活用する。
管状血管分割作業において,新しいネットワークは顕著なサイス性能(ASACA500が84.37%,ImageCASが80.32%)を示した。
論文 参考訳(メタデータ) (2024-01-11T19:07:58Z) - Predicting Infant Brain Connectivity with Federated Multi-Trajectory
GNNs using Scarce Data [54.55126643084341]
既存のディープラーニングソリューションには,3つの大きな制限がある。
我々はフェデレートグラフベースの多軌道進化ネットワークであるFedGmTE-Net++を紹介する。
フェデレーションの力を利用して、限られたデータセットを持つ多種多様な病院の地域学習を集約する。
論文 参考訳(メタデータ) (2024-01-01T10:20:01Z) - Source-Free Collaborative Domain Adaptation via Multi-Perspective
Feature Enrichment for Functional MRI Analysis [55.03872260158717]
安静時MRI機能(rs-fMRI)は、神経疾患の分析を助けるために多地点で研究されている。
ソース領域とターゲット領域の間のfMRIの不均一性を低減するための多くの手法が提案されている。
しかし、マルチサイト研究における懸念やデータストレージの負担のため、ソースデータの取得は困難である。
我々は、fMRI解析のためのソースフリー協調ドメイン適応フレームワークを設計し、事前訓練されたソースモデルとラベルなしターゲットデータのみにアクセスできるようにする。
論文 参考訳(メタデータ) (2023-08-24T01:30:18Z) - An Unpaired Cross-modality Segmentation Framework Using Data
Augmentation and Hybrid Convolutional Networks for Segmenting Vestibular
Schwannoma and Cochlea [7.7150383247700605]
CrossMoDAの課題は、未ラベル高分解能T2スキャンで前庭神経癌(VS)腫瘍とコチェリー領域を自動的に分離することである。
2022年版では、セグメンテーションタスクを多施設スキャンで拡張している。
本稿では,データ拡張とハイブリッド畳み込みネットワークを用いた非対向型クロスモーダルセグメンテーションフレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-28T01:15:33Z) - Automated Olfactory Bulb Segmentation on High Resolutional T2-Weighted
MRI [0.0]
神経画像解析のコミュニティは、嗅覚機能において重要な役割を担っているにもかかわらず、嗅覚球(OB)の自動化セグメンテーションを無視している。
サブミリT2ミリ(T2w)全脳MR画像上にOB組織を正確に分割するための,新しい,高速かつ完全自動深層学習パイプラインを導入する。
Rhineland Studyの203名の参加者を対象に, OBパイプラインは, 境界線, OB局在, 体積推定の点で高い性能を示す。
論文 参考訳(メタデータ) (2021-08-09T18:03:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。