論文の概要: Identification of morphological fingerprint in perinatal brains using
quasi-conformal mapping and contrastive learning
- arxiv url: http://arxiv.org/abs/2311.14955v1
- Date: Sat, 25 Nov 2023 07:43:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-29 22:45:51.071030
- Title: Identification of morphological fingerprint in perinatal brains using
quasi-conformal mapping and contrastive learning
- Title(参考訳): 準コンフォーマルマッピングとコントラスト学習を用いた周産期脳の形態的指紋の同定
- Authors: Boyang Wang, Weihao Zheng, Ying Wang, Zhe Zhang, Yuchen Sheng and
Minmin Wang
- Abstract要約: 脳内の形態的指紋は、個人の特異性を識別することができる。
感覚運動と視覚皮質は個人識別において最も寄与する領域として認識された。
- 参考スコア(独自算出の注目度): 10.62496310428474
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The morphological fingerprint in the brain is capable of identifying the
uniqueness of an individual. However, whether such individual patterns are
present in perinatal brains, and which morphological attributes or cortical
regions better characterize the individual differences of ne-onates remain
unclear. In this study, we proposed a deep learning framework that projected
three-dimensional spherical meshes of three morphological features (i.e.,
cortical thickness, mean curvature, and sulcal depth) onto two-dimensional
planes through quasi-conformal mapping, and employed the ResNet18 and
contrastive learning for individual identification. We used the cross-sectional
structural MRI data of 682 infants, incorporating with data augmentation, to
train the model and fine-tuned the parameters based on 60 infants who had
longitudinal scans. The model was validated on 30 longitudinal scanned infant
data, and remarkable Top1 and Top5 accuracies of 71.37% and 84.10% were
achieved, respectively. The sensorimotor and visual cortices were recognized as
the most contributive regions in individual identification. Moreover, the
folding morphology demonstrated greater discriminative capability than the
cortical thickness, which could serve as the morphological fingerprint in
perinatal brains. These findings provided evidence for the emergence of
morphological fingerprints in the brain at the beginning of the third
trimester, which may hold promising implications for understanding the
formation of in-dividual uniqueness in the brain during early development.
- Abstract(参考訳): 脳内の形態的指紋は、個人の特異性を識別することができる。
しかし、そのような個々のパターンが周産期脳に存在するかどうか、ネオン酸の個体差をよりよく特徴付ける形態的特徴や皮質領域は明らかでない。
本研究では,3つの形態的特徴(皮質厚,平均曲率,sulcal depth)からなる3次元球面メッシュを準等角写像により2次元平面に投影する深層学習フレームワークを提案し,ResNet18と対比学習を個人識別に適用した。
682名の乳児の縦断的構造MRIデータを用いて, 模型の訓練を行い, 縦断的スキャンを行った60名の乳児を対象にパラメータを微調整した。
このモデルは, 乳児の縦スキャンデータ30件で検証され, それぞれ71.37%, 84.10%の顕著なTop1とTop5の精度が得られた。
感覚運動と視覚皮質は個人識別において最も寄与する領域として認識された。
さらに, 折りたたみ型は, 周産期脳における形態的指紋として機能する皮質の厚さよりも, 判別能力が高かった。
これらの発見は、第3三期開始時に脳に形態学的指紋が出現する証拠となり、初期発達中に脳の個体内特異性の形成を理解する上で有望な意味を持つ可能性がある。
関連論文リスト
- Knowledge-Guided Prompt Learning for Lifespan Brain MR Image Segmentation [53.70131202548981]
本稿では,脳MRIにKGPL(Knowledge-Guided Prompt Learning)を用いた2段階のセグメンテーションフレームワークを提案する。
具体的には,大規模データセットと準最適ラベルを用いたトレーニング前セグメンテーションモデルについて述べる。
知識的プロンプトの導入は、解剖学的多様性と生物学的プロセスの間の意味的関係を捉えている。
論文 参考訳(メタデータ) (2024-07-31T04:32:43Z) - MRI Volume-Based Robust Brain Age Estimation Using Weight-Shared Spatial Attention in 3D CNNs [3.038642416291856]
提案モデルでは,CNNの各層に共有空間アテンション層が組み込まれ,さらに5層に高密度層が組み込まれている。
提案手法の斬新さは,CNN層間の共有重みを持つ空間的注意モジュールの概念にある。
提案手法は, 健常者516T1のMRI量からなるADNIデータセットを用いてトレーニングし, 平均絶対誤差(MAE)は1.662歳であった。
論文 参考訳(メタデータ) (2024-07-09T09:00:21Z) - Predicting Age from White Matter Diffusivity with Residual Learning [8.820225805789176]
拡散テンソルイメージング(DTI)は、脳白質内の加齢に伴う微細構造変化を特定するのに有効であることが証明されている。
通常の白色物質による加齢変化を捉えるために,白色物質比年齢推定法を開発した。
論文 参考訳(メタデータ) (2023-11-06T20:18:26Z) - Machine learning and Topological data analysis identify unique features
of human papillae in 3D scans [2.6867649936260247]
ヒト乳頭部の3次元顕微鏡スキャンにおける最初の機械学習フレームワークを提案する。
本研究は, 乳頭形状の持続的ホモロジー特性が生物学的変数の予測に最も有効であることを示す。
特筆すべきは、乳頭は個体間で独特であり、個体は48%の精度で識別できることである。
論文 参考訳(メタデータ) (2023-07-12T15:50:38Z) - Deep learning reveals the common spectrum underlying multiple brain
disorders in youth and elders from brain functional networks [53.257804915263165]
ヒトの初期および後期の脳障害は、脳機能における病理学的変化を共有する可能性がある。
病理的共通性に関する神経画像データによる重要な証拠はいまだ発見されていない。
多地点機能磁気共鳴画像データを用いたディープラーニングモデルを構築し、健康的な制御から5つの異なる脳障害を分類する。
論文 参考訳(メタデータ) (2023-02-23T09:22:05Z) - NeuroExplainer: Fine-Grained Attention Decoding to Uncover Cortical
Development Patterns of Preterm Infants [73.85768093666582]
我々はNeuroExplainerと呼ばれる説明可能な幾何学的深層ネットワークを提案する。
NeuroExplainerは、早産に伴う幼児の皮質発達パターンの解明に使用される。
論文 参考訳(メタデータ) (2023-01-01T12:48:12Z) - Brain Cortical Functional Gradients Predict Cortical Folding Patterns
via Attention Mesh Convolution [51.333918985340425]
我々は,脳の皮質ジャイロ-サルカル分割図を予測するための新しいアテンションメッシュ畳み込みモデルを開発した。
実験の結果,我々のモデルによる予測性能は,他の最先端モデルよりも優れていた。
論文 参考訳(メタデータ) (2022-05-21T14:08:53Z) - Infant Brain Age Classification: 2D CNN Outperforms 3D CNN in Small
Dataset [0.14063138455565613]
乳児の脳磁気共鳴画像(MRI)は、ミエリン化以外の特定の発達パターンを示す。
標準化された基準がなければ、3歳前のMRIから脳の構造的成熟度を視覚的に推定することは、サーバ間およびサーバ内変動によって支配される。
我々は、この課題に取り組むための一般的な実現可能性と、2次元および3次元畳み込みニューラルネットワーク(CNN)を含む様々なアプローチの有用性について検討する。
中央軸厚スラブ上に2次元CNNを用いて0.90[95% CI:0.86-0.94]の精度を達成した。
論文 参考訳(メタデータ) (2021-12-27T18:02:48Z) - Predi\c{c}\~ao da Idade Cerebral a partir de Imagens de Resson\^ancia
Magn\'etica utilizando Redes Neurais Convolucionais [57.52103125083341]
磁気共鳴画像を用いた脳年齢予測のための深層学習手法について検討した。
バイオマーカーの同定は、早期の神経変性過程の検出、および年齢または非年齢に関する認知低下の予測に有用である。
最も優れた結果は、平均絶対誤差3.83年を達成した2Dモデルによって得られた。
論文 参考訳(メタデータ) (2021-12-23T14:51:45Z) - Neurodevelopmental Age Estimation of Infants Using a 3D-Convolutional
Neural Network Model based on Fusion MRI Sequences [0.08341869765517104]
脳が正常に発達しているかどうかを判断する能力は、小児神経放射線学と神経学の重要な要素である。
3次元畳み込みニューラルネットワーク(3D CNN)を用いて,脳の発達年齢を共通MRIを用いて迅速に分類した。
論文 参考訳(メタデータ) (2020-10-07T01:24:15Z) - Patch-based Brain Age Estimation from MR Images [64.66978138243083]
磁気共鳴画像(MRI)による脳年齢推定は、被験者の生物学的脳年齢と時系列年齢の違いを導出する。
より高年齢の神経変性を早期に検出することは、より良い医療と患者の計画を促進する可能性がある。
我々は、脳の3Dパッチと畳み込みニューラルネットワーク(CNN)を用いて、局所的な脳年齢推定器を開発する新しいディープラーニングアプローチを開発した。
論文 参考訳(メタデータ) (2020-08-29T11:50:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。