論文の概要: Using CNNs for AD classification based on spatial correlation of BOLD
signals during the observation
- arxiv url: http://arxiv.org/abs/2104.10596v1
- Date: Wed, 21 Apr 2021 15:48:18 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-22 16:39:10.342958
- Title: Using CNNs for AD classification based on spatial correlation of BOLD
signals during the observation
- Title(参考訳): 観測中の大胆信号の空間相関に基づくcnnを用いた広告分類
- Authors: Nazanin Beheshti, Lennart Johnsson
- Abstract要約: 畳み込みニューラルネットワーク(CNN)の時系列信号の空間相関に基づく分類により,最大82%の分類精度が得られることを示した。
私たちは、脳がAAL領域の中心点としてサブドメインシードとして埋め込まれる境界ボックスに沿って認知ボキセルのセットとしてアトラスを形成します。
- 参考スコア(独自算出の注目度): 7.6146285961466
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Resting state functional magnetic resonance images (fMRI) are commonly used
for classification of patients as having Alzheimer's disease (AD), mild
cognitive impairment (MCI), or being cognitive normal (CN). Most methods use
time-series correlation of voxels signals during the observation period as a
basis for the classification. In this paper we show that Convolutional Neural
Network (CNN) classification based on spatial correlation of time-averaged
signals yield a classification accuracy of up to 82% (sensitivity 86%,
specificity 80%)for a data set with 429 subjects (246 cognitive normal and 183
Alzheimer patients). For the spatial correlation of time-averaged signal values
we use voxel subdomains around center points of the 90 regions AAL atlas. We
form the subdomains as sets of voxels along a Hilbert curve of a bounding box
in which the brain is embedded with the AAL regions center points serving as
subdomain seeds. The matrix resulting from the spatial correlation of the 90
arrays formed by the subdomain segments of the Hilbert curve yields a symmetric
90x90 matrix that is used for the classification based on two different CNN
networks, a 4-layer CNN network with 3x3 filters and with 4, 8, 16, and 32
output channels respectively, and a 2-layer CNN network with 3x3 filters and
with 4 and 8 output channels respectively. The results of the two networks are
reported and compared.
- Abstract(参考訳): 安静時機能的磁気共鳴画像(fMRI)は、アルツハイマー病(AD)、軽度認知障害(MCI)、または認知正常(CN)の分類に用いられる。
ほとんどの方法は、観察期間中のボクセル信号の時系列相関を分類の基盤として用いる。
本稿では,時間平均信号の空間的相関に基づく畳み込みニューラルネットワーク(CNN)分類において,429名の被験者(認知正常246名,アルツハイマー患者183名)を対象に,最大82%(感度86%,特異性80%)の分類精度が得られた。
時間平均信号値の空間的相関については,90領域AALアトラスの中心点付近のボクセルサブドメインを用いる。
我々は、サブドメインを、サブドメインシードとして機能するAAL領域中心点に脳が埋め込まれた境界ボックスのヒルベルト曲線に沿ったボクセルの集合として形成する。
ヒルベルト曲線のサブドメインセグメントによって形成される90配列の空間的相関から生じる行列は、2つの異なるCNNネットワークに基づいて分類するために使用される対称90x90行列、それぞれ3x3フィルタと4,8,16,32出力チャネルを有する4層CNNネットワーク、および3x3フィルタと4,8出力チャネルを有する2層CNNネットワークを生成する。
2つのネットワークの結果を報告し、比較する。
関連論文リスト
- Multi-Class Abnormality Classification in Video Capsule Endoscopy Using Deep Learning [0.0]
このレポートでは、Capsule Vision 2024 Challengeに対するTeam Seq2Cureのディープラーニングアプローチの概要を概説する。
畳み込みニューラルネットワーク(CNN)とトランスフォーマーベースのアーキテクチャのアンサンブルを多クラス異常分類に活用する。
提案手法は, 平均精度86.34パーセント, AUC-ROCスコア0.9908を検証セットで達成した。
論文 参考訳(メタデータ) (2024-10-24T16:13:06Z) - Attention-based Saliency Maps Improve Interpretability of Pneumothorax
Classification [52.77024349608834]
視覚変換器(ViT)の胸部X線撮影(CXR)分類性能と注意ベース唾液の解釈可能性について検討する。
ViTは、CheXpert、Chest X-Ray 14、MIMIC CXR、VinBigDataの4つの公開データセットを用いて、肺疾患分類のために微調整された。
ViTsは最先端のCNNと比べてCXR分類AUCに匹敵するものであった。
論文 参考訳(メタデータ) (2023-03-03T12:05:41Z) - CNN-based fully automatic wrist cartilage volume quantification in MR
Image [55.41644538483948]
追加の注意層を持つU-net畳み込みニューラルネットワークは、最高の手首軟骨分割性能を提供する。
非MRI法を用いて軟骨体積測定の誤差を独立に評価すべきである。
論文 参考訳(メタデータ) (2022-06-22T14:19:06Z) - Classification of Hyperspectral Images by Using Spectral Data and Fully
Connected Neural Network [0.0]
ハイパースペクトル画像では90%以上の分類成功が達成されている。
本研究では,インドマツ,サリナス,パヴィアセンター,パヴィア大学,ボツワナのハイパースペクトル像を分類した。
すべてのハイパースペクトル画像のテストセットに対して平均97.5%の精度が達成される。
論文 参考訳(メタデータ) (2022-01-08T12:45:48Z) - Osteoporosis Prescreening using Panoramic Radiographs through a Deep
Convolutional Neural Network with Attention Mechanism [65.70943212672023]
注意モジュールを持つディープ畳み込みニューラルネットワーク(CNN)はパノラマX線写真上で骨粗しょう症を検出することができる。
49歳から60歳までの70種類のパノラマX線写真(PR)のデータセットを用いて検討した。
論文 参考訳(メタデータ) (2021-10-19T00:03:57Z) - Transfer Learning of Deep Spatiotemporal Networks to Model Arbitrarily
Long Videos of Seizures [58.720142291102135]
てんかん患者の治療には, てんかんセミノロジーの詳細な分析が重要である。
本稿では、畳み込みニューラルネットワーク(CNN)とリカレントニューラルネットワーク(RNN)を組み合わせた新しいアーキテクチャであるGESTURESを紹介する。
本稿では,HARデータセットでトレーニングしたSTCNNとRNNを組み合わせて,任意の長さの発作映像を正確に表現できることを示す。
論文 参考訳(メタデータ) (2021-06-22T18:40:31Z) - Improving 3D convolutional neural network comprehensibility via
interactive visualization of relevance maps: Evaluation in Alzheimer's
disease [0.8031935951075242]
畳み込みニューラルネットワーク(CNN)は、磁気共鳴イメージング(MRI)スキャンに基づいてアルツハイマー病(AD)認知症を検出する高い診断精度を実現します。
この理由の1つは、モデル理解性の欠如である。
より精度の高いモデルは、事前知識によって事前に定義された差別的脳領域にも依存するかどうかを検討した。
論文 参考訳(メタデータ) (2020-12-18T15:16:50Z) - Fully Automated Left Atrium Segmentation from Anatomical Cine Long-axis
MRI Sequences using Deep Convolutional Neural Network with Unscented Kalman
Filter [0.3344190892270789]
本研究は, 左房セグメンテーションの完全自動化手法を提案する。
提案手法は,長軸配列のタイプを自動的に検出する分類ネットワークと,3種類の畳み込みニューラルネットワークモデルから構成される。
また,20名以上の患者から得られた各チャンバー群の画像数に等しい1515枚以上の画像から,提案したモデルが最先端であることを示した。
論文 参考訳(メタデータ) (2020-09-28T21:06:35Z) - A temporal-to-spatial deep convolutional neural network for
classification of hand movements from multichannel electromyography data [0.14502611532302037]
我々は,マルチチャネルsEMGのための深部CNNにおける初期処理層の設計を提案し,評価する新しい貢献を行う。
本稿では,各sEMGチャネル上で第1層が個別に畳み込みを行い,時間的特徴を抽出する,新しい時間的空間的CNNアーキテクチャを提案する。
我々の新しいTtS CNN設計はデータベース1では66.6%、データベース2では67.8%の精度を実現している。
論文 参考訳(メタデータ) (2020-07-16T09:11:26Z) - Adaptive feature recombination and recalibration for semantic
segmentation with Fully Convolutional Networks [57.64866581615309]
完全畳み込みネットワークを用いたセマンティックセグメンテーションに適応した特徴の組換えと空間適応型再分類ブロックを提案する。
その結果、再結合と再校正は競争ベースラインの結果を改善し、3つの異なる問題にまたがって一般化することを示した。
論文 参考訳(メタデータ) (2020-06-19T15:45:03Z) - Approximation and Non-parametric Estimation of ResNet-type Convolutional
Neural Networks [52.972605601174955]
本稿では,ResNet型CNNが重要な関数クラスにおいて最小誤差率を達成可能であることを示す。
Barron と H'older のクラスに対する前述のタイプの CNN の近似と推定誤差率を導出する。
論文 参考訳(メタデータ) (2019-03-24T19:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。