論文の概要: Conversion of single-energy computed tomography to parametric maps of
dual-energy computed tomography using convolutional neural network
- arxiv url: http://arxiv.org/abs/2309.15314v1
- Date: Tue, 26 Sep 2023 23:52:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-28 17:19:43.625709
- Title: Conversion of single-energy computed tomography to parametric maps of
dual-energy computed tomography using convolutional neural network
- Title(参考訳): 畳み込みニューラルネットワークを用いた2エネルギー計算トモグラフィのパラメトリックマップへの1エネルギー計算トモグラフィの変換
- Authors: Sangwook Kim, Jimin Lee, Jungye Kim, Bitbyeol Kim, Chang Heon Choi,
Seongmoon Jung
- Abstract要約: 我々は、畳み込みニューラルネットワーク(CNN)を用いて、単エネルギーCT(SECT)を仮想単色画像(VMI)、有効原子数(EAN)、相対電子密度(RED)の3つの異なるパラメトリックマップへ直接変換する深層学習フレームワークを提案する。
対象は,2019年から2020年の間に収集した67例である。
- 参考スコア(独自算出の注目度): 14.0220313168791
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Objectives: We propose a deep learning (DL) multi-task learning framework
using convolutional neural network (CNN) for a direct conversion of
single-energy CT (SECT) to three different parametric maps of dual-energy CT
(DECT): Virtual-monochromatic image (VMI), effective atomic number (EAN), and
relative electron density (RED).
Methods: We propose VMI-Net for conversion of SECT to 70, 120, and 200 keV
VMIs. In addition, EAN-Net and RED-Net were also developed to convert SECT to
EAN and RED. We trained and validated our model using 67 patients collected
between 2019 and 2020. SECT images with 120 kVp acquired by the DECT (IQon
spectral CT, Philips) were used as input, while the VMIs, EAN, and RED acquired
by the same device were used as target. The performance of the DL framework was
evaluated by absolute difference (AD) and relative difference (RD).
Results: The VMI-Net converted 120 kVp SECT to the VMIs with AD of 9.02
Hounsfield Unit, and RD of 0.41% compared to the ground truth VMIs. The ADs of
the converted EAN and RED were 0.29 and 0.96, respectively, while the RDs were
1.99% and 0.50% for the converted EAN and RED, respectively.
Conclusions: SECT images were directly converted to the three parametric maps
of DECT (i.e., VMIs, EAN, and RED). By using this model, one can generate the
parametric information from SECT images without DECT device. Our model can help
investigate the parametric information from SECT retrospectively.
Advances in knowledge: Deep learning framework enables converting SECT to
various high-quality parametric maps of DECT.
- Abstract(参考訳): 目的: 単エネルギーCT(SECT)を2重エネルギーCT(DECT)のパラメトリックマップ(VMI)、有効原子数(EAN)、相対電子密度(RED)の3種類のパラメトリックマップに直接変換するための畳み込みニューラルネットワーク(CNN)を用いた深層学習(DL)マルチタスク学習フレームワークを提案する。
方法: SECT を 70, 120, 200 keV VMI に変換する VMI-Net を提案する。
さらに、EAN-NetとRED-NetもSECTをEANとREDに変換するために開発された。
2019年から2020年の間に収集した67名の患者を用いて,モデルのトレーニングと検証を行った。
DECT(IQon spectrum CT, Philips)が取得した120kVpのSECT画像を入力として、同じデバイスで取得したVMI、EAN、REDをターゲットとして使用した。
DLフレームワークの性能は絶対差(AD)と相対差(RD)で評価した。
結果: VMI-Net は 120 kVp SECT を AD の 9.02 Hounsfield Unit で VMI に変換し、RD は RD が 0.41% である。
変換されたEANは0.29、REDは0.96、RDは1.99%、REDは0.50%であった。
結論: SECTイメージはDECTの3つのパラメトリックマップ(VMI、EAN、RED)に直接変換された。
このモデルを用いることで、DECT装置なしでSECT画像からパラメトリック情報を生成することができる。
我々のモデルは、SECTからのパラメトリック情報を振り返りに調査するのに役立ちます。
知識の進歩: ディープラーニングフレームワークは、SECTをDECTの様々な高品質パラメトリックマップに変換することができる。
関連論文リスト
- Deep Learning Based Apparent Diffusion Coefficient Map Generation from Multi-parametric MR Images for Patients with Diffuse Gliomas [1.5267759610392577]
拡散強調(DWI)MRIから得られたADCマップは、組織内の水分子に関する機能的測定を提供する。
本研究では,多パラメータMR画像からADCマップを合成するディープラーニングフレームワークを開発することを目的とする。
論文 参考訳(メタデータ) (2024-07-02T19:08:40Z) - 3D-CLMI: A Motor Imagery EEG Classification Model via Fusion of 3D-CNN
and LSTM with Attention [0.174048653626208]
本稿では,3次元畳み込みニューラルネットワーク(CNN)と長期記憶ネットワーク(LSTM)を組み合わせて運動画像(MI)信号を分類するモデルを提案する。
実験の結果、このモデルは、BCIコンペティションIVデータセット2aの分類精度92.7%、F1スコア0.91に達した。
このモデルにより、ユーザの運動像意図の分類精度が大幅に向上し、自律走行車や医療リハビリテーションといった新興分野における脳-コンピュータインタフェースの応用可能性が改善された。
論文 参考訳(メタデータ) (2023-12-20T03:38:24Z) - Efficient Deep Learning Models for Privacy-preserving People Counting on
Low-resolution Infrared Arrays [11.363207467478134]
赤外線(IR)アレイセンサーは低コストで省エネでプライバシー保護のソリューションを提供する。
これまでの研究は、ディープラーニング(DL)がこのタスクにおいて優れたパフォーマンスが得られることを示した。
商業用8x8アレイから収集したIR画像からなる新しいデータセット上で,6種類のDLアーキテクチャを比較した。
論文 参考訳(メタデータ) (2023-04-12T15:29:28Z) - MB-DECTNet: A Model-Based Unrolled Network for Accurate 3D DECT
Reconstruction [8.142703665697098]
エンド・ツー・エンドでトレーニング可能な3次元再構成のための深層学習モデルに基づくアンロールネットワークを提案する。
提案するネットワークは,多数の反復アルゴリズムと組み合わせることができるが,その性能を両エネルギー交互最小化(DEAM)を用いて実証する。
定量的結果から,MB-DECTNetは従来の統計アルゴリズムよりも精度良く減衰係数を推定できるが,計算コストははるかに低い可能性が示唆された。
論文 参考訳(メタデータ) (2023-02-01T16:51:56Z) - A Hybrid Brain-Computer Interface Using Motor Imagery and SSVEP Based on
Convolutional Neural Network [0.9176056742068814]
本稿では,2ストリーム畳み込みニューラルネットワーク(TSCNN)を用いたハイブリッド脳-コンピュータインタフェースを提案する。
定常視覚誘発電位(SSVEP)と運動画像(MI)のパラダイムを組み合わせる。
TSCNNはトレーニングプロセスの2つのパラダイムにおいて、自動的に脳波の特徴を抽出する。
論文 参考訳(メタデータ) (2022-12-10T12:34:36Z) - Multitask AET with Orthogonal Tangent Regularity for Dark Object
Detection [84.52197307286681]
暗黒環境下でのオブジェクト検出を強化するために,新しいマルチタスク自動符号化変換(MAET)モデルを提案する。
自己超越的な方法で、MAETは、現実的な照明劣化変換を符号化して復号することで、本質的な視覚構造を学習する。
我々は,合成および実世界のデータセットを用いて最先端のパフォーマンスを達成した。
論文 参考訳(メタデータ) (2022-05-06T16:27:14Z) - Two-Stream Graph Convolutional Network for Intra-oral Scanner Image
Segmentation [133.02190910009384]
本稿では,2ストリームグラフ畳み込みネットワーク(TSGCN)を提案する。
TSGCNは3次元歯(表面)セグメンテーションにおいて最先端の方法よりも優れています。
論文 参考訳(メタデータ) (2022-04-19T10:41:09Z) - ViTAEv2: Vision Transformer Advanced by Exploring Inductive Bias for
Image Recognition and Beyond [76.35955924137986]
我々は、内在性IBを畳み込み、すなわちViTAEから探索するビジョントランスフォーマーを提案する。
ViTAEはいくつかの空間ピラミッド縮小モジュールを備えており、入力イメージをリッチなマルチスケールコンテキストでトークンに埋め込む。
我々は、ImageNet検証セット上で88.5%のTop-1分類精度と、ImageNet実検証セット上で最高の91.2%のTop-1分類精度を得る。
論文 参考訳(メタデータ) (2022-02-21T10:40:05Z) - A Battle of Network Structures: An Empirical Study of CNN, Transformer,
and MLP [121.35904748477421]
畳み込みニューラルネットワーク(CNN)は、コンピュータビジョンのための支配的なディープニューラルネットワーク(DNN)アーキテクチャである。
トランスフォーマーとマルチ層パーセプトロン(MLP)ベースのモデル(Vision TransformerやVision-Mixer)が新しいトレンドを導い始めた。
本稿では,これらのDNN構造について実証的研究を行い,それぞれの長所と短所を理解しようとする。
論文 参考訳(メタデータ) (2021-08-30T06:09:02Z) - Vision Transformers are Robust Learners [65.91359312429147]
ビジョントランスフォーマー(ViT)の一般的な腐敗や摂動、分布シフト、自然逆転例に対する堅牢性について検討します。
ViTsが実際により堅牢な学習者である理由を説明するために、定量的および定性的な指標を提供する分析を提示します。
論文 参考訳(メタデータ) (2021-05-17T02:39:22Z) - Visual Saliency Transformer [127.33678448761599]
RGBとRGB-Dの液状物体検出(SOD)のための、純粋な変圧器であるVST(Visual Saliency Transformer)に基づく新しい統一モデルを開発しました。
イメージパッチを入力として取り、トランスフォーマーを利用してイメージパッチ間のグローバルコンテキストを伝搬する。
実験結果から,RGBとRGB-D SODのベンチマークデータセットにおいて,本モデルが既存の最新結果を上回っていることが示された。
論文 参考訳(メタデータ) (2021-04-25T08:24:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。