論文の概要: Region-specific Dictionary Learning-based Low-dose Thoracic CT
Reconstruction
- arxiv url: http://arxiv.org/abs/2010.09953v1
- Date: Tue, 20 Oct 2020 01:41:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-05 07:56:57.483201
- Title: Region-specific Dictionary Learning-based Low-dose Thoracic CT
Reconstruction
- Title(参考訳): 低用量胸郭CTによる領域別辞書作成
- Authors: Qiong Xu, Jeff Wang, Hiroki Shirato, Lei Xing
- Abstract要約: 本稿では,CT画像再構成のための強力なスパースデータ処理技術の有用性を最大化するために,領域固有の画像パッチを用いた辞書学習手法を提案する。
CT画像の特徴とノイズの不均一な分布を考慮すると、辞書の領域ごとのカスタマイズが反復的再構成に利用される。
ヒトのイメージングデータでは、肺と心臓の構造をよりよく復元でき、同時に脊椎の周囲のノイズを効果的に低減できることがわかった。
- 参考スコア(独自算出の注目度): 8.549327304895506
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents a dictionary learning-based method with region-specific
image patches to maximize the utility of the powerful sparse data processing
technique for CT image reconstruction. Considering heterogeneous distributions
of image features and noise in CT, region-specific customization of
dictionaries is utilized in iterative reconstruction. Thoracic CT images are
partitioned into several regions according to their structural and noise
characteristics. Dictionaries specific to each region are then learned from the
segmented thoracic CT images and applied to subsequent image reconstruction of
the region. Parameters for dictionary learning and sparse representation are
determined according to the structural and noise properties of each region. The
proposed method results in better performance than the conventional
reconstruction based on a single dictionary in recovering structures and
suppressing noise in both simulation and human CT imaging. Quantitatively, the
simulation study shows maximum improvement of image quality for the whole
thorax can achieve 4.88% and 11.1% in terms of the Structure-SIMilarity (SSIM)
and Root-Mean-Square Error (RMSE) indices, respectively. For human imaging
data, it is found that the structures in the lungs and heart can be better
recovered, while simultaneously decreasing noise around the vertebra
effectively. The proposed strategy takes into account inherent regional
differences inside of the reconstructed object and leads to improved images.
The method can be readily extended to CT imaging of other anatomical regions
and other applications.
- Abstract(参考訳): 本稿では,CT画像再構成のための強力なスパースデータ処理技術の有用性を最大化するために,領域固有の画像パッチを用いた辞書学習手法を提案する。
ctにおける画像特徴量と雑音の異種分布を考慮すると,辞書の地域固有のカスタマイズが反復的再構成に活用される。
胸部CT像は、その構造的およびノイズ特性に応じて複数の領域に分割される。
次に、各領域に特異的な辞書を分割した胸部CT画像から学習し、その後の領域の画像再構成に適用する。
辞書学習とスパース表現のパラメータは各領域の構造的および雑音的特性に応じて決定される。
提案手法は,構造回復における単一辞書に基づく従来の再構成よりも優れた性能を示し,シミュレーションとヒトCT画像のノイズを抑制する。
シミュレーションの結果,胸郭全体の画像品質はSSIM(Structure-SIMilarity)とRMSE(Root-Mean-Square Error)の指標でそれぞれ4.88%,11.1%向上した。
ヒトのイメージングデータでは、肺と心臓の構造をよりよく復元でき、同時に脊椎の周囲のノイズを効果的に低減できることがわかった。
提案手法は、再構成対象物の内部に固有の地域差を考慮し、画像の改善につながる。
この方法は、他の解剖学的領域や他の用途のCTイメージングに容易に拡張することができる。
関連論文リスト
- Modality-Agnostic Structural Image Representation Learning for
Deformable Multi-Modality Medical Image Registration [22.7527360372462]
本稿では,識別的・コントラスト的・非分散的な深部構造画像表現を学習するためのモダリティ非依存的構造表現学習法を提案する。
本手法は,従来の局所的構造表現や統計的類似度尺度よりも識別性と精度の点で優れている。
論文 参考訳(メタデータ) (2024-02-29T08:01:31Z) - Feature-oriented Deep Learning Framework for Pulmonary Cone-beam CT
(CBCT) Enhancement with Multi-task Customized Perceptual Loss [9.59233136691378]
コーンビームCT(CBCT)は画像誘導放射線治療中に定期的に収集される。
近年, 深層学習に基づくCBCT強調法は, 人工物抑制に有望な成果を上げている。
本稿では,高画質CBCT画像から高画質CTライク画像へ変換する特徴指向ディープラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2023-11-01T10:09:01Z) - Solving Low-Dose CT Reconstruction via GAN with Local Coherence [2.325977856241404]
本稿では,局所コヒーレンスを向上したGANを用いた新しい手法を提案する。
提案手法は, 近接画像の局所的コヒーレンスを光学的流れにより捕捉し, 構築した画像の精度と安定性を著しく向上させる。
論文 参考訳(メタデータ) (2023-09-24T08:55:42Z) - Correlated and Multi-frequency Diffusion Modeling for Highly
Under-sampled MRI Reconstruction [14.687337090732036]
既存のMRI再建法の多くは、特定の組織領域を考慮せずに、全MR画像のtar-geted再構成を行う。
これは、診断のための重要でない組織に対する再構成精度を強調できない可能性がある。
そこで本研究では,k空間データの特性と拡散過程を組み合わせることで,マルチ周波数先行のマイニングに焦点をあてる。
論文 参考訳(メタデータ) (2023-09-02T07:51:27Z) - K-Space-Aware Cross-Modality Score for Synthesized Neuroimage Quality
Assessment [71.27193056354741]
クロスモダリティな医用画像合成をどう評価するかという問題は、ほとんど解明されていない。
本稿では,この課題の進展を促すため,新しい指標K-CROSSを提案する。
K-CROSSは、トレーニング済みのマルチモードセグメンテーションネットワークを使用して、病変の位置を予測する。
論文 参考訳(メタデータ) (2023-07-10T01:26:48Z) - Region-based Contrastive Pretraining for Medical Image Retrieval with
Anatomic Query [56.54255735943497]
医用画像検索のための地域別コントラスト事前トレーニング(RegionMIR)
医用画像検索のための領域ベースコントラスト事前トレーニング(RegionMIR)について紹介する。
論文 参考訳(メタデータ) (2023-05-09T16:46:33Z) - Orientation-Shared Convolution Representation for CT Metal Artifact
Learning [63.67718355820655]
X線CT(CT)スキャン中、患者を乗せた金属インプラントは、しばしば有害なアーティファクトに繋がる。
既存のディープラーニングベースの手法は、有望な再構築性能を得た。
本稿では,人工物の物理的事前構造に適応するために,配向型畳み込み表現戦略を提案する。
論文 参考訳(メタデータ) (2022-12-26T13:56:12Z) - Multi-Channel Convolutional Analysis Operator Learning for Dual-Energy
CT Reconstruction [108.06731611196291]
我々は,多チャンネル畳み込み解析演算子学習法(MCAOL)を開発した。
本研究では,低エネルギー,高エネルギーで減衰画像を共同で再構成する最適化手法を提案する。
論文 参考訳(メタデータ) (2022-03-10T14:22:54Z) - Multi-modal Aggregation Network for Fast MR Imaging [85.25000133194762]
我々は,完全サンプル化された補助モダリティから補完表現を発見できる,MANetという新しいマルチモーダル・アグリゲーション・ネットワークを提案する。
我々のMANetでは,完全サンプリングされた補助的およびアンアンサンプされた目標モダリティの表現は,特定のネットワークを介して独立に学習される。
私たちのMANetは、$k$-spaceドメインの周波数信号を同時に回復できるハイブリッドドメイン学習フレームワークに従います。
論文 参考訳(メタデータ) (2021-10-15T13:16:59Z) - Learning Fuzzy Clustering for SPECT/CT Segmentation via Convolutional
Neural Networks [5.3123694982708365]
QBSPECT(Quantitative bone single-photon emission Computed Tomography)は、平面骨シンチグラフィよりも骨転移をより定量的に評価する可能性を秘めています。
解剖学的領域-関心(ROI)のセグメント化は、まだ専門家による手動の記述に大きく依存しています。
本研究では,QBSPECT画像を病変,骨,背景に分割するための高速かつ堅牢な自動分割法を提案する。
論文 参考訳(メタデータ) (2021-04-17T19:03:52Z) - Pathological Retinal Region Segmentation From OCT Images Using Geometric
Relation Based Augmentation [84.7571086566595]
本稿では,幾何学と形状の内在的関係を共同で符号化することで,従来のGANベースの医用画像合成法よりも優れた手法を提案する。
提案手法は,取得手順の異なる画像を有する公開RETOUCHデータセット上で,最先端のセグメンテーション手法より優れている。
論文 参考訳(メタデータ) (2020-03-31T11:50:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。