論文の概要: Low Dose Helical CBCT denoising by using domain filtering with deep
reinforcement learning
- arxiv url: http://arxiv.org/abs/2104.00889v1
- Date: Fri, 2 Apr 2021 05:28:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-05 14:04:20.493150
- Title: Low Dose Helical CBCT denoising by using domain filtering with deep
reinforcement learning
- Title(参考訳): 深層強化学習を用いたドメインフィルタリングによる低線量ヘリカルcbct雑音検出
- Authors: Wooram Kang, Mayank Patwari
- Abstract要約: コーンビームCT(CBCT)は、現在知られているCTイメージングの方法である。
低線量CT画像は、標準線量CT画像と比較して、結果のノイズに根本的な問題がある。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Cone Beam Computed Tomography(CBCT) is a now known method to conduct CT
imaging. Especially, The Low Dose CT imaging is one of possible options to
protect organs of patients when conducting CT imaging. Therefore Low Dose CT
imaging can be an alternative instead of Standard dose CT imaging. However Low
Dose CT imaging has a fundamental issue with noises within results compared to
Standard Dose CT imaging. Currently, there are lots of attempts to erase the
noises. Most of methods with artificial intelligence have many parameters and
unexplained layers or a kind of black-box methods. Therefore, our research has
purposes related to these issues. Our approach has less parameters than usual
methods by having Iterative learn-able bilateral filtering approach with Deep
reinforcement learning. And we applied The Iterative learn-able filtering
approach with deep reinforcement learning to sinograms and reconstructed volume
domains. The method and the results of the method can be much more explainable
than The other black box AI approaches. And we applied the method to Helical
Cone Beam Computed Tomography(CBCT), which is the recent CBCT trend. We tested
this method with on 2 abdominal scans(L004, L014) from Mayo Clinic TCIA
dataset. The results and the performances of our approach overtake the results
of the other previous methods.
- Abstract(参考訳): コーンビームCT(CBCT)は、現在知られているCTイメージングの方法である。
特に低線量CTは、CT画像撮影を行う際の患者の臓器を保護するための選択肢の1つである。
したがって、低線量CT画像は標準線量CT画像の代わりにできる。
しかし,低線量CT画像は,標準線量CT画像と比較して,結果のノイズに根本的な問題がある。
現在、騒音を消そうとする試みが数多くある。
人工知能の手法の多くは、多くのパラメータと説明できないレイヤー、あるいはある種のブラックボックスメソッドを持っている。
それゆえ、我々の研究にはこれらの問題に関連する目的がある。
本手法は,深層強化学習を用いた反復学習可能なバイラテラルフィルタリングアプローチにより,通常の手法よりもパラメータが小さい。
また,深層強化学習を用いた反復学習可能なフィルタリング手法を,シノグラムと再構成ボリューム領域に適用した。
メソッドとメソッドの結果は、他のブラックボックスAIアプローチよりもずっと説明がつきやすい。
本手法を最近のCBCTトレンドであるCBCT(Helical Cone Beam Computed Tomography)に適用した。
mayo clinic tciaデータセットから2つの腹部スキャン(l004,l014)を用いて検討を行った。
私たちのアプローチの結果とパフォーマンスは、他の以前のメソッドの結果を追い越しています。
関連論文リスト
- WIA-LD2ND: Wavelet-based Image Alignment for Self-supervised Low-Dose CT Denoising [74.14134385961775]
我々は, NDCTデータのみを用いて, WIA-LD2NDと呼ばれる新しい自己監督型CT画像復調法を提案する。
WIA-LD2ND は Wavelet-based Image Alignment (WIA) と Frequency-Aware Multi-scale Loss (FAM) の2つのモジュールから構成される。
論文 参考訳(メタデータ) (2024-03-18T11:20:11Z) - Low-Dose CT Image Reconstruction by Fine-Tuning a UNet Pretrained for
Gaussian Denoising for the Downstream Task of Image Enhancement [3.7960472831772765]
Computed Tomography (CT) は医用画像モダリティとして広く用いられているが,低用量CTデータからの再構成は難しい課題である。
本稿では,LDCT画像の再構成を行うための,より複雑な2段階の手法を提案する。
提案手法は,LoDoPaB-CTチャレンジにおける共有トップランキングと,SSIMメトリックに対する第1位を実現する。
論文 参考訳(メタデータ) (2024-03-06T08:51:09Z) - Rotational Augmented Noise2Inverse for Low-dose Computed Tomography
Reconstruction [83.73429628413773]
改良された深層学習手法は、画像のノイズを除去する能力を示しているが、正確な地上の真実を必要とする。
畳み込みニューラルネットワーク(CNN)のトレーニングに基礎的真理を必要としないLDCTのための新しい自己教師型フレームワークを提案する。
数値および実験結果から,Sparse View を用いた N2I の再構成精度は低下しており,提案手法は異なる範囲のサンプリング角度で画像品質を向上する。
論文 参考訳(メタデータ) (2023-12-19T22:40:51Z) - Diffusion Probabilistic Priors for Zero-Shot Low-Dose CT Image Denoising [10.854795474105366]
低線量CT画像のデノイングは医用画像処理において重要な課題である。
既存の教師なしのディープラーニングベースの手法では、大量の低用量CT画像でトレーニングする必要があることが多い。
低用量CT画像のゼロショット復調を可能にするため,訓練中に通常用量CT画像のみを利用する新しい教師なし手法を提案する。
論文 参考訳(メタデータ) (2023-05-25T09:38:52Z) - Diffusion Denoising for Low-Dose-CT Model [0.0]
本研究では,条件付きサンプリングを用いたノイズフリーCT画像を生成するDDLMと呼ばれるDNOising Diffusion LDCTモデルを提案する。
LDCT画像を用いた実験では,他の最先端手法よりも少ない推論時間を用いてDDLMの同等の性能を示した。
論文 参考訳(メタデータ) (2023-01-27T01:11:42Z) - Patch-wise Deep Metric Learning for Unsupervised Low-Dose CT Denoising [33.706959549595496]
パッチワイド・ディープ・メトリック・ラーニングを用いた低用量CT再構成のための新しい教師なし学習手法を提案する。
鍵となる考え方は、同じ解剖学的構造を共有するイメージパッチの正のペアを引いて、互いに同じノイズレベルを持つ負のペアをプッシュすることで、埋め込み空間を学習することである。
実験結果から,CT数シフトを伴わない高品質な復号化画像の作成において,深度検定学習が重要な役割を担っていることが確認された。
論文 参考訳(メタデータ) (2022-07-06T00:58:11Z) - Harmonizing Pathological and Normal Pixels for Pseudo-healthy Synthesis [68.5287824124996]
そこで本研究では,新しいタイプの識別器であるセグメンタを提案し,病変の正確な特定と擬似健康画像の視覚的品質の向上を図っている。
医用画像強調に生成画像を適用し,低コントラスト問題に対処するために拡張結果を利用する。
BraTSのT2モダリティに関する総合的な実験により、提案手法は最先端の手法よりも大幅に優れていることが示された。
論文 参考訳(メタデータ) (2022-03-29T08:41:17Z) - CNN Filter Learning from Drawn Markers for the Detection of Suggestive
Signs of COVID-19 in CT Images [58.720142291102135]
畳み込みニューラルネットワーク(CNN)のフィルタを推定するために,大規模な注釈付きデータセットやバックプロパゲーションを必要としない手法を提案する。
少数のCT画像に対して、ユーザは、代表的な正常領域と異常領域にマーカーを描画する。
本発明の方法は、カーネルがマークされたものに似た拡張領域に特有な一連の畳み込み層からなる特徴抽出器を生成する。
論文 参考訳(メタデータ) (2021-11-16T15:03:42Z) - CyTran: A Cycle-Consistent Transformer with Multi-Level Consistency for
Non-Contrast to Contrast CT Translation [56.622832383316215]
コントラストCTを非コントラストCTに変換する手法を提案する。
提案手法は、CyTranを略して、サイクル一貫性のある生成逆転変換器に基づいている。
実験の結果、CyTranは競合するすべての手法より優れています。
論文 参考訳(メタデータ) (2021-10-12T23:25:03Z) - Low Dose CT Denoising via Joint Bilateral Filtering and Intelligent
Parameter Optimization [7.909848251752742]
現在の臨床試験では,CT画像のノイズ低減に反復的再構成法が用いられている。
深層学習法はCT画像のノイズ化に成功している。
本稿では,JBF (Joint Bilateral Filter) を用いてCT画像の識別を行う。
論文 参考訳(メタデータ) (2020-07-09T13:17:36Z) - Synergistic Learning of Lung Lobe Segmentation and Hierarchical
Multi-Instance Classification for Automated Severity Assessment of COVID-19
in CT Images [61.862364277007934]
3次元CT画像におけるCOVID-19の重症度自動評価のための相乗的学習フレームワークを提案する。
マルチタスクのディープネットワーク(M$2$UNet)が開発され、新型コロナウイルス患者の重症度を評価する。
われわれのM$2$UNetはパッチレベルのエンコーダと肺葉分画のためのセグメンテーションサブネットワークと重度評価のための分類サブネットワークから構成されている。
論文 参考訳(メタデータ) (2020-05-08T03:16:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。