論文の概要: Patch-CNN: Training data-efficient deep learning for high-fidelity
diffusion tensor estimation from minimal diffusion protocols
- arxiv url: http://arxiv.org/abs/2307.01346v1
- Date: Mon, 3 Jul 2023 20:39:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-06 19:06:34.855138
- Title: Patch-CNN: Training data-efficient deep learning for high-fidelity
diffusion tensor estimation from minimal diffusion protocols
- Title(参考訳): Patch-CNN:最小拡散プロトコルを用いた高忠実拡散テンソル推定のためのデータ効率の学習
- Authors: Tobias Goodwin-Allcock, Ting Gong, Robert Gray, Parashkev Nachev and
Hui Zhang
- Abstract要約: 6方向拡散重み付き画像(DWI)のみからの拡散テンソル(DT)推定のための新しい手法であるPatch-CNNを提案する。
イメージワイドFCNと比較すると、最小限のカーネルはトレーニングデータ要求を大幅に削減する。
改良された繊維配向推定は、改良されたトラクトグラムを生成する。
- 参考スコア(独自算出の注目度): 3.0416974614291226
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We propose a new method, Patch-CNN, for diffusion tensor (DT) estimation from
only six-direction diffusion weighted images (DWI). Deep learning-based methods
have been recently proposed for dMRI parameter estimation, using either
voxel-wise fully-connected neural networks (FCN) or image-wise convolutional
neural networks (CNN). In the acute clinical context -- where pressure of time
limits the number of imaged directions to a minimum -- existing approaches
either require an infeasible number of training images volumes (image-wise
CNNs), or do not estimate the fibre orientations (voxel-wise FCNs) required for
tractogram estimation. To overcome these limitations, we propose Patch-CNN, a
neural network with a minimal (non-voxel-wise) convolutional kernel
(3$\times$3$\times$3). Compared with voxel-wise FCNs, this has the advantage of
allowing the network to leverage local anatomical information. Compared with
image-wise CNNs, the minimal kernel vastly reduces training data demand.
Evaluated against both conventional model fitting and a voxel-wise FCN,
Patch-CNN, trained with a single subject is shown to improve the estimation of
both scalar dMRI parameters and fibre orientation from six-direction DWIs. The
improved fibre orientation estimation is shown to produce improved tractogram.
- Abstract(参考訳): 6方向拡散重み付き画像(DWI)のみを用いた拡散テンソル(DT)推定のための新しい手法であるPatch-CNNを提案する。
近年,voxel-wise full-connected neural networks (fcn) または image-wise convolutional neural networks (cnn) を用いたdmriパラメータ推定法が提案されている。
時間的圧力が画像の方向数を最小に制限する急性臨床状況では、既存のアプローチではトレーニング画像ボリューム(画像ごとにcnn)を必要としないか、気道図推定に必要な繊維方向(voxel-wise fcns)を見積もらないかのどちらかである。
これらの限界を克服するため,我々は,最小(非ボクセル回り)畳み込みカーネル(3$\times$3$\times$3)を持つニューラルネットワークであるpatch-cnnを提案する。
voxel-wise fcnsと比較すると、ネットワークが局所解剖情報を利用できるという利点がある。
イメージ毎のcnnと比較すると、最小カーネルはトレーニングデータ要求を大幅に削減する。
6方向DWIからのスカラーdMRIパラメータと繊維配向の両方の推定を改善するために,従来のモデルフィッティングとボクセルワイドFCNであるPatch-CNNを比較した。
改良された繊維配向推定は、改良されたトラクトグラムを生成する。
関連論文リスト
- Speed Limits for Deep Learning [67.69149326107103]
熱力学の最近の進歩は、初期重量分布から完全に訓練されたネットワークの最終分布への移動速度の制限を可能にする。
線形および線形化可能なニューラルネットワークに対して,これらの速度制限に対する解析式を提供する。
NTKスペクトルとラベルのスペクトル分解に関するいくつかの妥当なスケーリング仮定を考えると、学習はスケーリングの意味で最適である。
論文 参考訳(メタデータ) (2023-07-27T06:59:46Z) - Deep Multi-Threshold Spiking-UNet for Image Processing [51.88730892920031]
本稿では,SNN(Spike Neural Networks)とU-Netアーキテクチャを組み合わせた,画像処理のためのスパイキング-UNetの概念を紹介する。
効率的なスパイキング-UNetを実現するためには,スパイクによる高忠実度情報伝播の確保と,効果的なトレーニング戦略の策定という2つの課題に直面する。
実験の結果,画像のセグメンテーションとデノイングにおいて,スパイキングUNetは非スパイキングと同等の性能を発揮することがわかった。
論文 参考訳(メタデータ) (2023-07-20T16:00:19Z) - Gradient Descent in Neural Networks as Sequential Learning in RKBS [63.011641517977644]
初期重みの有限近傍にニューラルネットワークの正確な電力系列表現を構築する。
幅にかかわらず、勾配降下によって生成されたトレーニングシーケンスは、正規化された逐次学習によって正確に複製可能であることを証明した。
論文 参考訳(メタデータ) (2023-02-01T03:18:07Z) - Parameter estimation for WMTI-Watson model of white matter using
encoder-decoder recurrent neural network [0.0]
本研究では,ラットおよびヒト脳のデータセット上でのNLLS,RNN法および多層パーセプトロン(MLP)の性能を評価する。
提案手法は,NLLSよりも計算時間を大幅に短縮できるという利点を示した。
論文 参考訳(メタデータ) (2022-03-01T16:33:15Z) - AxonNet: A self-supervised Deep Neural Network for Intravoxel Structure
Estimation from DW-MRI [0.12183405753834559]
ニューラルネットワーク(DNN)が拡散強調信号から情報を抽出し,脳幹を再構築する可能性を示唆する。
2つのDNNモデルを提示する:1つはボキセルの形で軸索構造を推定し、もう1つは中央ボキセルの構造を計算する。
論文 参考訳(メタデータ) (2021-03-19T20:11:03Z) - Selfish Sparse RNN Training [13.165729746380816]
本稿では,1回のランでパラメータ数を固定したスパースRNNを,性能を損なうことなく訓練する手法を提案する。
我々はPenn TreeBankとWikitext-2の様々なデータセットを用いて最先端のスパーストレーニング結果を得る。
論文 参考訳(メタデータ) (2021-01-22T10:45:40Z) - Deep Networks for Direction-of-Arrival Estimation in Low SNR [89.45026632977456]
我々は,真の配列多様体行列の変異チャネルデータから学習した畳み込みニューラルネットワーク(CNN)を導入する。
我々は低SNR体制でCNNを訓練し、すべてのSNRでDoAを予測する。
私たちの堅牢なソリューションは、ワイヤレスアレイセンサーから音響マイクロフォンやソナーまで、いくつかの分野に適用できます。
論文 参考訳(メタデータ) (2020-11-17T12:52:18Z) - Finite Versus Infinite Neural Networks: an Empirical Study [69.07049353209463]
カーネルメソッドは、完全に接続された有限幅ネットワークより優れている。
中心とアンサンブルの有限ネットワークは後続のばらつきを減らした。
重みの減衰と大きな学習率の使用は、有限ネットワークと無限ネットワークの対応を破る。
論文 参考訳(メタデータ) (2020-07-31T01:57:47Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - Sound Event Detection with Depthwise Separable and Dilated Convolutions [23.104644393058123]
最先端音事象検出(SED)法は通常、入力された音声信号から有用な特徴を抽出するために一連の畳み込みニューラルネットワーク(CNN)を用いる。
本稿では,CNNを深く分離可能な畳み込みに置き換えることと,RNNを拡張畳み込みに置き換えることを提案する。
平均フレーム単位のF1スコアと平均エラー率をそれぞれ4.6%、平均エラー率を3.8%向上させる。
論文 参考訳(メタデータ) (2020-02-02T19:50:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。