論文の概要: A microstructure estimation Transformer inspired by sparse
representation for diffusion MRI
- arxiv url: http://arxiv.org/abs/2205.06450v1
- Date: Fri, 13 May 2022 05:14:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-16 14:08:13.171625
- Title: A microstructure estimation Transformer inspired by sparse
representation for diffusion MRI
- Title(参考訳): 拡散MRIにおけるスパース表現にインスパイアされた微細構造推定変換器
- Authors: Tianshu Zheng, Cong Sun, Weihao Zheng, Wen Shi, Haotian Li, Yi Sun, Yi
Zhang, Guangbin Wang, Chuyang Ye, Dan Wu
- Abstract要約: ダウンサンプルq空間データを用いたdMRIによる微細構造推定のためのTransformerに基づく学習ベースフレームワークを提案する。
提案手法は,スキャン時間で最大11.25倍の加速を実現し,他の最先端の学習手法よりも優れていた。
- 参考スコア(独自算出の注目度): 11.761543033212797
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Diffusion magnetic resonance imaging (dMRI) is an important tool in
characterizing tissue microstructure based on biophysical models, which are
complex and highly non-linear. Resolving microstructures with optimization
techniques is prone to estimation errors and requires dense sampling in the
q-space. Deep learning based approaches have been proposed to overcome these
limitations. Motivated by the superior performance of the Transformer, in this
work, we present a learning-based framework based on Transformer, namely, a
Microstructure Estimation Transformer with Sparse Coding (METSC) for dMRI-based
microstructure estimation with downsampled q-space data. To take advantage of
the Transformer while addressing its limitation in large training data
requirements, we explicitly introduce an inductive bias - model bias into the
Transformer using a sparse coding technique to facilitate the training process.
Thus, the METSC is composed with three stages, an embedding stage, a sparse
representation stage, and a mapping stage. The embedding stage is a
Transformer-based structure that encodes the signal to ensure the voxel is
represented effectively. In the sparse representation stage, a dictionary is
constructed by solving a sparse reconstruction problem that unfolds the
Iterative Hard Thresholding (IHT) process. The mapping stage is essentially a
decoder that computes the microstructural parameters from the output of the
second stage, based on the weighted sum of normalized dictionary coefficients
where the weights are also learned. We tested our framework on two dMRI models
with downsampled q-space data, including the intravoxel incoherent motion
(IVIM) model and the neurite orientation dispersion and density imaging (NODDI)
model. The proposed method achieved up to 11.25 folds of acceleration in scan
time and outperformed the other state-of-the-art learning-based methods.
- Abstract(参考訳): 拡散磁気共鳴イメージング(dMRI)は、複雑で非線形な生体物理モデルに基づく組織微細構造を特徴づける重要なツールである。
ミクロ組織を最適化技術で解くことは、誤差を推定し、q空間に密集したサンプリングを必要とする。
ディープラーニングに基づくアプローチは、これらの制限を克服するために提案されている。
そこで本研究では,トランスフォーマの優れた性能に動機づけられた学習ベースのフレームワーク,すなわち,ダウンサンプリングされたq空間データを用いたdmriに基づく微細構造推定のためのスパース符号化(metsc)を用いた微細構造推定トランスを提案する。
大規模なトレーニングデータ要件の制限に対処しながらTransformerを活用するために,スパースコーディング技術を用いてTransformerにインダクティブバイアス(モデルバイアス)を明示的に導入し,トレーニングプロセスを容易にする。
このようにして、metscは、埋め込みステージ、スパース表現ステージ、マッピングステージの3つのステージで構成される。
埋め込みステージは、voxelが効果的に表現されるように信号を符号化するトランスベース構造である。
スパース表現段階において、反復ハードしきい値(iht)過程を展開するスパース再構成問題を解決することにより辞書を構築する。
マッピングステージは本質的には、重みも学習される正規化辞書係数の重み付き和に基づいて、第2段の出力からミクロ構造パラメータを計算するデコーダである。
我々は,VIM(Intravoxel Incoherent Motion)モデルとNODDI(Neneurite orientationvariance and density imaging)モデルを含む,低サンプリングQ空間データを用いた2つのdMRIモデルについて検討を行った。
提案手法は,最大11.25倍の高速化を実現し,他の最先端学習法を上回った。
関連論文リスト
- A Neural Network Transformer Model for Composite Microstructure Homogenization [1.2277343096128712]
森田中法のような均質化法は、幅広い構成特性に対して急速な均質化をもたらす。
本稿では,様々なミクロ構造の知識を捉えたトランスフォーマーニューラルネットワークアーキテクチャについて述べる。
ネットワークは、履歴に依存し、非線形で、均質化されたストレス-ひずみ応答を予測する。
論文 参考訳(メタデータ) (2023-04-16T19:57:52Z) - Transform Once: Efficient Operator Learning in Frequency Domain [69.74509540521397]
本研究では、周波数領域の構造を利用して、空間や時間における長距離相関を効率的に学習するために設計されたディープニューラルネットワークについて検討する。
この研究は、単一変換による周波数領域学習のための青写真を導入している。
論文 参考訳(メタデータ) (2022-11-26T01:56:05Z) - Machine Learning model for gas-liquid interface reconstruction in CFD
numerical simulations [59.84561168501493]
流体の体積(VoF)法は多相流シミュレーションにおいて2つの不混和性流体間の界面を追跡・見つけるために広く用いられている。
VoF法の主なボトルネックは、計算コストが高く、非構造化グリッド上での精度が低いため、インタフェース再構成のステップである。
一般的な非構造化メッシュ上でのインタフェース再構築を高速化するために,グラフニューラルネットワーク(GNN)に基づく機械学習拡張VoF手法を提案する。
論文 参考訳(メタデータ) (2022-07-12T17:07:46Z) - K-Space Transformer for Fast MRIReconstruction with Implicit
Representation [39.04792898427536]
そこで本稿では,k-space における疎サンプルMRI信号の処理を行う Transformer ベースのフレームワークを提案する。
我々は、分光図の暗黙的な表現を採用し、空間座標を入力として扱い、部分的に観察された測定を動的にクエリする。
計算コストと再構成品質のバランスをとるために,高分解能デコーダと高分解能デコーダの階層構造を構築した。
論文 参考訳(メタデータ) (2022-06-14T16:06:15Z) - SUMD: Super U-shaped Matrix Decomposition Convolutional neural network
for Image denoising [0.0]
ネットワークに行列分解モジュール(MD)を導入し,グローバルなコンテキスト機能を確立する。
U字型アーキテクチャの多段階的プログレッシブ復元の設計に触発されて,MDモジュールをマルチブランチに統合する。
我々のモデル(SUMD)は、Transformerベースの手法で、同等の視覚的品質と精度が得られる。
論文 参考訳(メタデータ) (2022-04-11T04:38:34Z) - Active Phase-Encode Selection for Slice-Specific Fast MR Scanning Using
a Transformer-Based Deep Reinforcement Learning Framework [34.540525533018666]
高品質なスライス特異的軌道を生成するための軽量トランスフォーマーに基づく深層強化学習フレームワークを提案する。
提案手法は, 約150倍高速で, 復元精度を向上する。
論文 参考訳(メタデータ) (2022-03-11T05:05:09Z) - CSformer: Bridging Convolution and Transformer for Compressive Sensing [65.22377493627687]
本稿では,CNNからの詳細な空間情報を活用するためのハイブリッドフレームワークと,表現学習の強化を目的としたトランスフォーマーが提供するグローバルコンテキストを統合することを提案する。
提案手法は、適応的なサンプリングとリカバリからなるエンドツーエンドの圧縮画像センシング手法である。
実験により, 圧縮センシングにおける専用トランスアーキテクチャの有効性が示された。
論文 参考訳(メタデータ) (2021-12-31T04:37:11Z) - Mixed Precision Low-bit Quantization of Neural Network Language Models
for Speech Recognition [67.95996816744251]
長期間のメモリリカレントニューラルネットワーク(LSTM-RNN)とトランスフォーマーで表される最先端言語モデル(LM)は、実用アプリケーションではますます複雑で高価なものになりつつある。
現在の量子化法は、均一な精度に基づいており、量子化誤差に対するLMの異なる部分での様々な性能感度を考慮できない。
本稿では,新しい混合精度ニューラルネットワークLM量子化法を提案する。
論文 参考訳(メタデータ) (2021-11-29T12:24:02Z) - Mixed Precision of Quantization of Transformer Language Models for
Speech Recognition [67.95996816744251]
トランスフォーマーが表現する最先端のニューラルネットワークモデルは、実用アプリケーションにとってますます複雑で高価なものになりつつある。
現在の低ビット量子化法は、均一な精度に基づいており、量子化エラーに対するシステムの異なる部分での様々な性能感度を考慮できない。
最適局所精度設定は2つの手法を用いて自動的に学習される。
Penn Treebank (PTB)とSwitchboard corpusによるLF-MMI TDNNシステムの試験を行った。
論文 参考訳(メタデータ) (2021-11-29T09:57:00Z) - Reference-based Magnetic Resonance Image Reconstruction Using Texture
Transforme [86.6394254676369]
高速MRI再構成のための新しいテクスチャトランスフォーマーモジュール(TTM)を提案する。
変換器のクエリやキーとしてアンダーサンプルのデータと参照データを定式化する。
提案したTTMは、MRIの再構成手法に積み重ねることで、その性能をさらに向上させることができる。
論文 参考訳(メタデータ) (2021-11-18T03:06:25Z) - A novel Time-frequency Transformer and its Application in Fault
Diagnosis of Rolling Bearings [0.24214594180459362]
シーケンス処理における標準変換器の膨大な成功に触発された新しい時間周波数変換器(TFT)モデルを提案する。
本稿では,TFTに基づく新しいエンドツーエンドの故障診断フレームワークについて述べる。
論文 参考訳(メタデータ) (2021-04-19T06:53:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。