論文の概要: Using a Generative Adversarial Network for CT Normalization and its
Impact on Radiomic Features
- arxiv url: http://arxiv.org/abs/2001.08741v1
- Date: Wed, 22 Jan 2020 23:41:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-07 17:56:29.723229
- Title: Using a Generative Adversarial Network for CT Normalization and its
Impact on Radiomic Features
- Title(参考訳): CT正規化のための生成逆ネットワークの利用とその放射能特性への影響
- Authors: Leihao Wei and Yannan Lin and William Hsu
- Abstract要約: 放射線学的特徴は、線量レベルとスライス厚さの違いによる取得の違いに敏感である。
減線量,厚みスライス (2.0mm) 画像を正常線量 (100%) , 薄いスライス (1.0mm) 画像に正規化するために, GAN (3D Generative Adversarial Network) を用いた。
- 参考スコア(独自算出の注目度): 3.4548443472506194
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Computer-Aided-Diagnosis (CADx) systems assist radiologists with identifying
and classifying potentially malignant pulmonary nodules on chest CT scans using
morphology and texture-based (radiomic) features. However, radiomic features
are sensitive to differences in acquisitions due to variations in dose levels
and slice thickness. This study investigates the feasibility of generating a
normalized scan from heterogeneous CT scans as input. We obtained projection
data from 40 low-dose chest CT scans, simulating acquisitions at 10%, 25% and
50% dose and reconstructing the scans at 1.0mm and 2.0mm slice thickness. A 3D
generative adversarial network (GAN) was used to simultaneously normalize
reduced dose, thick slice (2.0mm) images to normal dose (100%), thinner slice
(1.0mm) images. We evaluated the normalized image quality using peak
signal-to-noise ratio (PSNR), structural similarity index (SSIM) and Learned
Perceptual Image Patch Similarity (LPIPS). Our GAN improved perceptual
similarity by 35%, compared to a baseline CNN method. Our analysis also shows
that the GAN-based approach led to a significantly smaller error (p-value <
0.05) in nine studied radiomic features. These results indicated that GANs
could be used to normalize heterogeneous CT images and reduce the variability
in radiomic feature values.
- Abstract(参考訳): computer-aided-diagnosis (cadx) システムは、形態学的およびテクスチャベースの(放射線学的)特徴を用いて、胸部ctスキャンで悪性肺結節の同定と分類を支援する。
しかし、放射線学的特徴は、線量レベルとスライス厚さの違いによる取得の違いに敏感である。
本研究では,異種CTスキャンから正規化スキャンを入力として生成する可能性について検討した。
低用量胸部CT検査40例から投射データを取得し, 取得率10%, 25%, 50%をシミュレーションし, 1.0mm, 2.0mmのスライス厚で再構成した。
減量された線量、太いスライス (2.0mm) 画像から正常線量 (100%) 、薄いスライス (1.0mm) 画像を同時に正規化するために、gan (3d generative adversarial network) が用いられた。
ピーク信号対雑音比(PSNR)、構造類似度指数(SSIM)、Learred Perceptual Image Patch similarity(LPIPS)を用いて、正規化画像の品質を評価した。
GANはベースラインCNN法と比較して知覚的類似性を35%改善した。
また,ganに基づくアプローチは9つの放射能の特徴を解析した結果,誤差(p値 < 0.05)が有意に小さいことが判明した。
以上の結果から,GANは異種CT画像の正常化や,放射線学的特徴値の変動を低減するために有用であることが示唆された。
関連論文リスト
- Deep-Motion-Net: GNN-based volumetric organ shape reconstruction from single-view 2D projections [1.8189671456038365]
放射線治療中に3次元臓器形状を再構成できるエンドツーエンドのグラフニューラルネットワークアーキテクチャを提案する。
提案モデルは、患者固有のテンプレートと、任意の投影角度でkV画像から抽出した深い特徴からメッシュ回帰を学習する。
総合的枠組みは, 合成呼吸運動のシナリオを定量的に検討し, 肝癌患者に対するフルスキャンで得られた内処理画像について質的に検討した。
論文 参考訳(メタデータ) (2024-07-09T09:07:18Z) - Rotational Augmented Noise2Inverse for Low-dose Computed Tomography
Reconstruction [83.73429628413773]
改良された深層学習手法は、画像のノイズを除去する能力を示しているが、正確な地上の真実を必要とする。
畳み込みニューラルネットワーク(CNN)のトレーニングに基礎的真理を必要としないLDCTのための新しい自己教師型フレームワークを提案する。
数値および実験結果から,Sparse View を用いた N2I の再構成精度は低下しており,提案手法は異なる範囲のサンプリング角度で画像品質を向上する。
論文 参考訳(メタデータ) (2023-12-19T22:40:51Z) - On the Localization of Ultrasound Image Slices within Point Distribution
Models [84.27083443424408]
甲状腺疾患は高分解能超音波(US)で診断されることが多い
縦断追跡は病理甲状腺形態の変化をモニタリングするための重要な診断プロトコルである。
3次元形状表現におけるUS画像の自動スライスローカライズのためのフレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-01T10:10:46Z) - Evaluation of Synthetically Generated CT for use in Transcranial Focused
Ultrasound Procedures [5.921808547303054]
経頭蓋骨集束超音波(TFUS)は、頭蓋骨を通して音を非侵襲的に、しばしばMRI誘導下で小さな領域に集束する治療用超音波法である。
CT画像は、個々の頭蓋骨間で異なる音響特性を推定するために使われ、tFUS手術中に効果的に焦点を合わせることができる。
そこで我々は,3Dパッチベースの条件付き生成対向ネットワーク(cGAN)を用いて,日常的に取得したT1強調MRIからCT画像を合成した。
我々は,Kranion を用いた tFUS 計画のための sCT と実CT (rCT) 画像を比較し,音響ツールボックスを用いたシミュレーションを行った。
論文 参考訳(メタデータ) (2022-10-26T15:15:24Z) - Automated SSIM Regression for Detection and Quantification of Motion
Artefacts in Brain MR Images [54.739076152240024]
磁気共鳴脳画像における運動アーチファクトは重要な問題である。
MR画像の画質評価は,臨床診断に先立って基本的である。
構造類似度指数(SSIM)回帰に基づく自動画像品質評価法が提案されている。
論文 参考訳(メタデータ) (2022-06-14T10:16:54Z) - Preservation of High Frequency Content for Deep Learning-Based Medical
Image Classification [74.84221280249876]
大量の胸部ラジオグラフィーの効率的な分析は、医師や放射線技師を助けることができる。
本稿では,視覚情報の効率的な識別と符号化のための離散ウェーブレット変換(DWT)を提案する。
論文 参考訳(メタデータ) (2022-05-08T15:29:54Z) - Self-Attention Generative Adversarial Network for Iterative
Reconstruction of CT Images [0.9208007322096533]
本研究の目的は、ノイズや不完全なデータから高品質なCT画像を再構成するために、単一のニューラルネットワークを訓練することである。
ネットワークには、データ内の長距離依存関係をモデル化するセルフアテンションブロックが含まれている。
我々のアプローチはCIRCLE GANに匹敵する全体的なパフォーマンスを示し、他の2つのアプローチよりも優れています。
論文 参考訳(メタデータ) (2021-12-23T19:20:38Z) - Explainable multiple abnormality classification of chest CT volumes with
AxialNet and HiResCAM [89.2175350956813]
本稿では,容積医用画像における多変量分類の課題について紹介する。
本稿では,複数のインスタンス学習型畳み込みニューラルネットワークであるAxialNetを提案する。
そして、HiResCAMと3D許容領域を利用した新しいマスクロスにより、モデルの学習を改善することを目指す。
論文 参考訳(メタデータ) (2021-11-24T01:14:33Z) - CNN Filter Learning from Drawn Markers for the Detection of Suggestive
Signs of COVID-19 in CT Images [58.720142291102135]
畳み込みニューラルネットワーク(CNN)のフィルタを推定するために,大規模な注釈付きデータセットやバックプロパゲーションを必要としない手法を提案する。
少数のCT画像に対して、ユーザは、代表的な正常領域と異常領域にマーカーを描画する。
本発明の方法は、カーネルがマークされたものに似た拡張領域に特有な一連の畳み込み層からなる特徴抽出器を生成する。
論文 参考訳(メタデータ) (2021-11-16T15:03:42Z) - Generative Models Improve Radiomics Performance in Different Tasks and
Different Datasets: An Experimental Study [3.040206021972938]
ラジオミクス(Radiomics)は、医用画像からの高スループット特徴抽出に焦点を当てた研究分野である。
生成モデルは、異なるタスクにおける低線量CTベースの放射能の性能を改善することができる。
論文 参考訳(メタデータ) (2021-09-06T06:01:21Z) - Label-Free Segmentation of COVID-19 Lesions in Lung CT [17.639558085838583]
ピクセルレベルの異常モデルを用いて,CTで新型コロナウイルスの病変を分類するためのラベルフリーアプローチを提案する。
我々のモデリングは、気管と血管の一部が、病変が属する高強度範囲にあり、強いパターンを示すという観察に着想を得たものである。
実験では,NormNetの有効性を3つの異なるデータセットで検証した。
論文 参考訳(メタデータ) (2020-09-08T12:38:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。