論文の概要: Single-participant structural connectivity matrices lead to greater
accuracy in classification of participants than function in autism in MRI
- arxiv url: http://arxiv.org/abs/2005.08035v2
- Date: Wed, 27 May 2020 16:09:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-02 13:59:51.156041
- Title: Single-participant structural connectivity matrices lead to greater
accuracy in classification of participants than function in autism in MRI
- Title(参考訳): 単一参加型構造接続行列は、MRIにおける自閉症機能よりも参加者の分類の精度を高める
- Authors: Matthew Leming, Simon Baron-Cohen, John Suckling
- Abstract要約: T1強調MRIから推定した灰色マター体積の局所ヒストグラムから対称接続行列を導出する手法を提案する。
我々は、自閉症の参加者を分類するために、接続行列を畳み込みニューラルネットワーク(CNN)に入力することで、この手法を検証する。
- 参考スコア(独自算出の注目度): 0.1160208922584163
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we introduce a technique of deriving symmetric connectivity
matrices from regional histograms of grey-matter volume estimated from
T1-weighted MRIs. We then validated the technique by inputting the connectivity
matrices into a convolutional neural network (CNN) to classify between
participants with autism and age-, motion-, and intracranial-volume-matched
controls from six different databases (29,288 total connectomes, mean age =
30.72, range 0.42-78.00, including 1555 subjects with autism). We compared this
method to similar classifications of the same participants using fMRI
connectivity matrices as well as univariate estimates of grey-matter volumes.
We further applied graph-theoretical metrics on output class activation maps to
identify areas of the matrices that the CNN preferentially used to make the
classification, focusing particularly on hubs. Our results gave AUROCs of
0.7298 (69.71% accuracy) when classifying by only structural connectivity,
0.6964 (67.72% accuracy) when classifying by only functional connectivity, and
0.7037 (66.43% accuracy) when classifying by univariate grey matter volumes.
Combining structural and functional connectivities gave an AUROC of 0.7354
(69.40% accuracy). Graph analysis of class activation maps revealed no
distinguishable network patterns for functional inputs, but did reveal
localized differences between groups in bilateral Heschl's gyrus and upper
vermis for structural connectivity. This work provides a simple means of
feature extraction for inputting large numbers of structural MRIs into machine
learning models.
- Abstract(参考訳): 本稿では,T1強調MRIから推定した灰色マター体積の局所ヒストグラムから対称接続行列を導出する手法を提案する。
次に,接続行列を畳み込みニューラルネットワーク(cnn)に入力し,6つの異なるデータベース(合計29,288個のコネクトーム,平均年齢30.72,範囲0.12-78.00,自閉症1555名を含む)から,自閉症と年齢,運動量,頭蓋内容積マッチング制御を分類した。
本手法を,fMRI接続行列とグレーマター体積の単変量推定を用いて,同一参加者の類似分類と比較した。
さらに,出力クラスアクティベーションマップのグラフ理論的指標を適用し,cnnが分類に好んで用いた行列の領域を同定し,特にハブに着目した。
その結果、AUROCsは構造的接続のみで分類すると0.7298 (69.71%)、機能的接続のみで分類すると0.6964 (67.72%)、単変量グレー物質量で分類すると0.7037 (66.43%)であった。
構造的および機能的な接続性の組み合わせにより、AUROCの精度は0.7354 (69.40%)となった。
クラスアクティベーションマップのグラフ解析では, 機能的入力に対するネットワークパターンの識別はできなかったが, 左右ヘシュル回旋群と上頂点の局所的な差異が認められた。
この研究は、多数の構造的MRIを機械学習モデルに入力するための、シンプルな特徴抽出手段を提供する。
関連論文リスト
- SMILE-UHURA Challenge -- Small Vessel Segmentation at Mesoscopic Scale from Ultra-High Resolution 7T Magnetic Resonance Angiograms [60.35639972035727]
公開されている注釈付きデータセットの欠如は、堅牢で機械学習駆動のセグメンテーションアルゴリズムの開発を妨げている。
SMILE-UHURAチャレンジは、7T MRIで取得したTime-of-Flightアンジオグラフィーの注釈付きデータセットを提供することで、公開されている注釈付きデータセットのギャップに対処する。
Diceスコアは、それぞれのデータセットで0.838 $pm$0.066と0.716 $pm$ 0.125まで到達し、平均パフォーマンスは0.804 $pm$ 0.15までになった。
論文 参考訳(メタデータ) (2024-11-14T17:06:00Z) - TotalSegmentator MRI: Sequence-Independent Segmentation of 59 Anatomical Structures in MR images [62.53931644063323]
本研究では,TotalSegmentatorをMR画像に拡張した。
このデータセットに基づいてnnU-Netセグメンテーションアルゴリズムを訓練し、類似度係数(Dice)を計算し、モデルの性能を評価した。
このモデルは、他の2つの公開セグメンテーションモデル(Dice score 0.824 vs 0.762; p0.001 and 0.762 versus 0.542; p)を大きく上回った。
論文 参考訳(メタデータ) (2024-05-29T20:15:54Z) - Bayesian Functional Connectivity and Graph Convolutional Network for Working Memory Load Classification [0.0]
本研究では,センサ空間における脳波の機能的接続を学習するためのベイズ構造学習アルゴリズムを提案する。
その結果,6種類の言語作業記憶負荷の被験者154名に対して対象内(対象別)分類を行ったところ,96%の判定精度が得られた。
また,αバンドとthetaバンドの分類精度はβバンドよりも良好であった。
論文 参考訳(メタデータ) (2024-04-30T11:31:07Z) - Labeling subtypes in a Parkinson's Cohort using Multifeatures in MRI - Integrating Grey and White Matter Information [0.05311301767110321]
相互K-Nearest Neighbor(MKNN)を用いた脳ネットワーク解析
パーキンソン病180例のMRI像とNIMHANS70例の解析を行った。
論文 参考訳(メタデータ) (2024-03-26T02:32:52Z) - Multilayer Multiset Neuronal Networks -- MMNNs [55.2480439325792]
本研究は,2層以上の類似性ニューロンを組み込んだ多層神経回路網について述べる。
また,回避すべき画像領域に割り当てられる反プロトタイプ点の利用についても検討した。
論文 参考訳(メタデータ) (2023-08-28T12:55:13Z) - CNN-based fully automatic wrist cartilage volume quantification in MR
Image [55.41644538483948]
追加の注意層を持つU-net畳み込みニューラルネットワークは、最高の手首軟骨分割性能を提供する。
非MRI法を用いて軟骨体積測定の誤差を独立に評価すべきである。
論文 参考訳(メタデータ) (2022-06-22T14:19:06Z) - Two-Stream Graph Convolutional Network for Intra-oral Scanner Image
Segmentation [133.02190910009384]
本稿では,2ストリームグラフ畳み込みネットワーク(TSGCN)を提案する。
TSGCNは3次元歯(表面)セグメンテーションにおいて最先端の方法よりも優れています。
論文 参考訳(メタデータ) (2022-04-19T10:41:09Z) - EMT-NET: Efficient multitask network for computer-aided diagnosis of
breast cancer [58.720142291102135]
乳腺腫瘍の分類と分別を同時に行うための,効率的で軽量な学習アーキテクチャを提案する。
腫瘍分類ネットワークにセグメンテーションタスクを組み込むことにより,腫瘍領域に着目したバックボーンネットワークで表現を学習する。
腫瘍分類の精度、感度、特異性はそれぞれ88.6%、94.1%、85.3%である。
論文 参考訳(メタデータ) (2022-01-13T05:24:40Z) - A deep learning model for data-driven discovery of functional
connectivity [0.0]
本稿では,被験者を分類する学習の一環として,接続構造を学習する深層学習アーキテクチャBrainGNNを提案する。
統合失調症 fMRI データセットを用いて,そのモデルの最先端の分類性能を示す。
論文 参考訳(メタデータ) (2021-12-07T21:57:32Z) - A Joint Network Optimization Framework to Predict Clinical Severity from Resting State Functional MRI Data [3.276067241408604]
静止状態fMRI(rs-fMRI)データから臨床重症度を予測する新しい枠組みを提案する。
フレームワークを2つの別々のデータセット上で10倍のクロスバリデーション設定で検証する。
論文 参考訳(メタデータ) (2020-08-27T23:43:25Z) - Ensemble Deep Learning on Large, Mixed-Site fMRI Datasets in Autism and
Other Tasks [0.1160208922584163]
我々は、これまでコンパイルされた最大のマルチソース機能的MRI(fMRI)コネクトロミックデータセットを備えた畳み込みニューラルネットワーク(CNN)を訓練する。
ASDとTDの制御を区別するディープラーニングモデルは、時間的および小脳の接続に大きく焦点を絞っている。
論文 参考訳(メタデータ) (2020-02-14T17:28:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。