論文の概要: Multi-Scale Texture Loss for CT denoising with GANs
- arxiv url: http://arxiv.org/abs/2403.16640v1
- Date: Mon, 25 Mar 2024 11:28:52 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-26 15:08:28.626119
- Title: Multi-Scale Texture Loss for CT denoising with GANs
- Title(参考訳): GANを用いたCT用マルチスケールテクスチャ損失
- Authors: Francesco Di Feola, Lorenzo Tronchin, Valerio Guarrasi, Paolo Soda,
- Abstract要約: GAN(Generative Adversarial Networks)は、医療画像の応用を認知するための強力なフレームワークとして証明されている。
本研究は,Gray-Level-Co-occurrence Matrix (GLCM) の内在的マルチスケール特性を利用した損失関数を提案する。
また,画像から抽出したマルチスケールテクスチャ情報を動的に集約する自己認識層を導入する。
- 参考スコア(独自算出の注目度): 0.9349653765341301
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Generative Adversarial Networks (GANs) have proved as a powerful framework for denoising applications in medical imaging. However, GAN-based denoising algorithms still suffer from limitations in capturing complex relationships within the images. In this regard, the loss function plays a crucial role in guiding the image generation process, encompassing how much a synthetic image differs from a real image. To grasp highly complex and non-linear textural relationships in the training process, this work presents a loss function that leverages the intrinsic multi-scale nature of the Gray-Level-Co-occurrence Matrix (GLCM). Although the recent advances in deep learning have demonstrated superior performance in classification and detection tasks, we hypothesize that its information content can be valuable when integrated into GANs' training. To this end, we propose a differentiable implementation of the GLCM suited for gradient-based optimization. Our approach also introduces a self-attention layer that dynamically aggregates the multi-scale texture information extracted from the images. We validate our approach by carrying out extensive experiments in the context of low-dose CT denoising, a challenging application that aims to enhance the quality of noisy CT scans. We utilize three publicly available datasets, including one simulated and two real datasets. The results are promising as compared to other well-established loss functions, being also consistent across three different GAN architectures. The code is available at: https://github.com/FrancescoDiFeola/DenoTextureLoss
- Abstract(参考訳): GAN(Generative Adversarial Networks)は、医療画像の応用を認知するための強力なフレームワークとして証明されている。
しかし、GANベースの復調アルゴリズムは、画像内の複雑な関係をキャプチャする際の制限に悩まされている。
この点において、損失関数は、合成画像が実際の画像とどの程度異なるかを含む画像生成過程を導く上で重要な役割を果たす。
本研究は,Gray-Level-Co-occurrence Matrix (GLCM, Gray-Level-Co-occurrence Matrix, Gray-Level-Co-occurrence Matrix, GLCM) の本質的なマルチスケール特性を利用した損失関数を提案する。
近年のディープラーニングの進歩は, 分類・検出タスクにおいて優れた性能を示したが, GANの訓練に組み込むと, 情報内容が有用である可能性が示唆された。
そこで本研究では,勾配に基づく最適化に適したGLCMの微分可能な実装を提案する。
また,画像から抽出したマルチスケールテクスチャ情報を動的に集約する自己認識層を導入する。
ノイズの多いCTスキャンの品質向上を目的とした,低用量CTデノナイジング(低用量CTデノナイジング)のコンテキストにおいて広範な実験を行うことで,本手法の有効性を検証した。
1つのシミュレートされたデータセットと2つの実際のデータセットを含む3つの公開データセットを使用します。
結果は、他のよく確立された損失関数と比較して有望であり、3つの異なるGANアーキテクチャ間で一貫性がある。
コードは、https://github.com/FrancescoDiFeola/DenoTextureLossで入手できる。
関連論文リスト
- Semantic Ensemble Loss and Latent Refinement for High-Fidelity Neural Image Compression [58.618625678054826]
本研究は、最適な視覚的忠実度のために設計された強化されたニューラル圧縮手法を提案する。
我々は,洗練されたセマンティック・アンサンブル・ロス,シャルボニエ・ロス,知覚的損失,スタイル・ロス,非バイナリ・ディバイザ・ロスを組み込んだモデルを構築した。
実験により,本手法は神経画像圧縮の統計的忠実度を著しく向上させることが示された。
論文 参考訳(メタデータ) (2024-01-25T08:11:27Z) - Distance Weighted Trans Network for Image Completion [52.318730994423106]
本稿では,DWT(Distance-based Weighted Transformer)を利用した画像コンポーネント間の関係をよりよく理解するためのアーキテクチャを提案する。
CNNは、粗い事前の局所的なテクスチャ情報を強化するために使用される。
DWTブロックは、特定の粗いテクスチャやコヒーレントな視覚構造を復元するために使用される。
論文 参考訳(メタデータ) (2023-10-11T12:46:11Z) - IT3D: Improved Text-to-3D Generation with Explicit View Synthesis [71.68595192524843]
本研究では、これらの問題に対処するために、明示的に合成されたマルチビュー画像を活用する新しい戦略を提案する。
我々のアプローチは、高画質画像を生成するために、LCDによって強化されたイメージ・ツー・イメージ・パイプラインを活用することである。
組込み判別器では、合成したマルチビュー画像は実データと見なされ、最適化された3Dモデルのレンダリングは偽データとして機能する。
論文 参考訳(メタデータ) (2023-08-22T14:39:17Z) - Parents and Children: Distinguishing Multimodal DeepFakes from Natural Images [60.34381768479834]
近年の拡散モデルの発展により、自然言語のテキストプロンプトから現実的なディープフェイクの生成が可能になった。
我々は、最先端拡散モデルにより生成されたディープフェイク検出に関する体系的研究を開拓した。
論文 参考訳(メタデータ) (2023-04-02T10:25:09Z) - Joint Learning of Deep Texture and High-Frequency Features for
Computer-Generated Image Detection [24.098604827919203]
本稿では,CG画像検出のための深いテクスチャと高周波特徴を有する共同学習戦略を提案する。
セマンティックセグメンテーションマップを生成して、アフィン変換操作を誘導する。
原画像と原画像の高周波成分の組み合わせを、注意機構を備えたマルチブランチニューラルネットワークに供給する。
論文 参考訳(メタデータ) (2022-09-07T17:30:40Z) - Multimodal-Boost: Multimodal Medical Image Super-Resolution using
Multi-Attention Network with Wavelet Transform [5.416279158834623]
対応する画像分解能の喪失は、医用画像診断の全体的な性能を低下させる。
ディープラーニングベースのシングルイメージスーパーレゾリューション(SISR)アルゴリズムは、全体的な診断フレームワークに革命をもたらした。
本研究は,低周波データから高頻度情報を学習する深層マルチアテンションモジュールを用いたGAN(Generative Adversarial Network)を提案する。
論文 参考訳(メタデータ) (2021-10-22T10:13:46Z) - Multi-Texture GAN: Exploring the Multi-Scale Texture Translation for
Brain MR Images [1.9163481966968943]
既存のアルゴリズムのかなりの割合は、ターゲットスキャナーからテクスチャの詳細を明示的に利用し保存することはできない。
本論文では,再構成イメージをより詳細に強調するために,マルチスケールテクスチャ転送の設計を行う。
本手法は,最先端手法において,プロトコール間あるいはスカンナ間翻訳において優れた結果が得られる。
論文 参考訳(メタデータ) (2021-02-14T19:14:06Z) - Learning Ultrasound Rendering from Cross-Sectional Model Slices for
Simulated Training [13.640630434743837]
計算シミュレーションは、バーチャルリアリティーにおけるそのようなスキルの訓練を容易にする。
インタラクティブな時間に任意のレンダリングやシミュレーションプロセスをバイパスするためにここに提案します。
我々は、専用のジェネレータアーキテクチャと入力供給方式を備えた生成的対向フレームワークを使用する。
論文 参考訳(メタデータ) (2021-01-20T21:58:19Z) - A Comprehensive Comparison of Multi-Dimensional Image Denoising Methods [14.702885691557638]
合成と実世界の両方のデータセットで60以上の手法を比較した。
単純な行列ベースのアルゴリズムは、テンソルと同じような結果が得られることを示す。
合成ガウスノイズで訓練されたいくつかのモデルは、実世界のカラー画像とビデオデータセットに最先端のパフォーマンスを示す。
論文 参考訳(メタデータ) (2020-11-06T16:28:17Z) - Intrinsic Autoencoders for Joint Neural Rendering and Intrinsic Image
Decomposition [67.9464567157846]
合成3Dモデルからリアルな画像を生成するためのオートエンコーダを提案し,同時に実像を本質的な形状と外観特性に分解する。
実験により, レンダリングと分解の併用処理が有益であることが確認され, 画像から画像への翻訳の質的, 定量的なベースラインよりも優れた結果が得られた。
論文 参考訳(メタデータ) (2020-06-29T12:53:58Z) - Attention Based Real Image Restoration [48.933507352496726]
深層畳み込みニューラルネットワークは、合成劣化を含む画像に対してより良い性能を発揮する。
本稿では,新しい1段ブラインド実画像復元ネットワーク(R$2$Net)を提案する。
論文 参考訳(メタデータ) (2020-04-26T04:21:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。