論文の概要: Multi-Scale Texture Loss for CT denoising with GANs
- arxiv url: http://arxiv.org/abs/2403.16640v2
- Date: Tue, 21 Jan 2025 15:25:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-22 14:17:22.022135
- Title: Multi-Scale Texture Loss for CT denoising with GANs
- Title(参考訳): GANを用いたCT用マルチスケールテクスチャ損失
- Authors: Francesco Di Feola, Lorenzo Tronchin, Valerio Guarrasi, Paolo Soda,
- Abstract要約: 損失関数にマルチスケールテクスチャ情報をキャプチャして埋め込む新しい手法を提案する。
本稿では,自己認識層によって動的に集約された画像の多スケールテクスチャ表現について紹介する。
低用量CTで広範な実験を行うことで,本手法の有効性を検証した。
- 参考スコア(独自算出の注目度): 0.9349653765341301
- License:
- Abstract: Generative Adversarial Networks (GANs) have proved as a powerful framework for denoising applications in medical imaging. However, GAN-based denoising algorithms still suffer from limitations in capturing complex relationships within the images. In this regard, the loss function plays a crucial role in guiding the image generation process, encompassing how much a synthetic image differs from a real image. To grasp highly complex and non-linear textural relationships in the training process, this work presents a novel approach to capture and embed multi-scale texture information into the loss function. Our method introduces a differentiable multi-scale texture representation of the images dynamically aggregated by a self-attention layer, thus exploiting end-to-end gradient-based optimization. We validate our approach by carrying out extensive experiments in the context of low-dose CT denoising, a challenging application that aims to enhance the quality of noisy CT scans. We utilize three publicly available datasets, including one simulated and two real datasets. The results are promising as compared to other well-established loss functions, being also consistent across three different GAN architectures. The code is available at: https://github.com/TrainLaboratory/MultiScaleTextureLoss-MSTLF
- Abstract(参考訳): GAN(Generative Adversarial Networks)は、医療画像の応用を認知するための強力なフレームワークとして証明されている。
しかし、GANベースの復調アルゴリズムは、画像内の複雑な関係をキャプチャする際の制限に悩まされている。
この点において、損失関数は、合成画像が実際の画像とどの程度異なるかを含む画像生成過程を導く上で重要な役割を果たす。
本研究は,学習過程における高度に複雑で非線形なテクスチャ関係を理解するために,多スケールテクスチャ情報を抽出し,ロス関数に埋め込む手法を提案する。
そこで本手法では,自己アテンション層によって動的に集約された画像のマルチスケールなテクスチャ表現を導入し,エンド・ツー・エンドの勾配に基づく最適化手法を提案する。
ノイズの多いCTスキャンの品質向上を目的とした,低用量CTデノナイジング(低用量CTデノナイジング)のコンテキストにおいて広範な実験を行うことで,本手法の有効性を検証した。
1つのシミュレートされたデータセットと2つの実際のデータセットを含む3つの公開データセットを使用します。
結果は、他のよく確立された損失関数と比較して有望であり、3つの異なるGANアーキテクチャ間で一貫性がある。
コードは、https://github.com/TrainLaboratory/MultiScaleTextureLoss-MSTLFで入手できる。
関連論文リスト
- Semantic Ensemble Loss and Latent Refinement for High-Fidelity Neural Image Compression [58.618625678054826]
本研究は、最適な視覚的忠実度のために設計された強化されたニューラル圧縮手法を提案する。
我々は,洗練されたセマンティック・アンサンブル・ロス,シャルボニエ・ロス,知覚的損失,スタイル・ロス,非バイナリ・ディバイザ・ロスを組み込んだモデルを構築した。
実験により,本手法は神経画像圧縮の統計的忠実度を著しく向上させることが示された。
論文 参考訳(メタデータ) (2024-01-25T08:11:27Z) - Distance Weighted Trans Network for Image Completion [52.318730994423106]
本稿では,DWT(Distance-based Weighted Transformer)を利用した画像コンポーネント間の関係をよりよく理解するためのアーキテクチャを提案する。
CNNは、粗い事前の局所的なテクスチャ情報を強化するために使用される。
DWTブロックは、特定の粗いテクスチャやコヒーレントな視覚構造を復元するために使用される。
論文 参考訳(メタデータ) (2023-10-11T12:46:11Z) - IT3D: Improved Text-to-3D Generation with Explicit View Synthesis [71.68595192524843]
本研究では、これらの問題に対処するために、明示的に合成されたマルチビュー画像を活用する新しい戦略を提案する。
我々のアプローチは、高画質画像を生成するために、LCDによって強化されたイメージ・ツー・イメージ・パイプラインを活用することである。
組込み判別器では、合成したマルチビュー画像は実データと見なされ、最適化された3Dモデルのレンダリングは偽データとして機能する。
論文 参考訳(メタデータ) (2023-08-22T14:39:17Z) - Parents and Children: Distinguishing Multimodal DeepFakes from Natural Images [60.34381768479834]
近年の拡散モデルの発展により、自然言語のテキストプロンプトから現実的なディープフェイクの生成が可能になった。
我々は、最先端拡散モデルにより生成されたディープフェイク検出に関する体系的研究を開拓した。
論文 参考訳(メタデータ) (2023-04-02T10:25:09Z) - Joint Learning of Deep Texture and High-Frequency Features for
Computer-Generated Image Detection [24.098604827919203]
本稿では,CG画像検出のための深いテクスチャと高周波特徴を有する共同学習戦略を提案する。
セマンティックセグメンテーションマップを生成して、アフィン変換操作を誘導する。
原画像と原画像の高周波成分の組み合わせを、注意機構を備えたマルチブランチニューラルネットワークに供給する。
論文 参考訳(メタデータ) (2022-09-07T17:30:40Z) - Multimodal-Boost: Multimodal Medical Image Super-Resolution using
Multi-Attention Network with Wavelet Transform [5.416279158834623]
対応する画像分解能の喪失は、医用画像診断の全体的な性能を低下させる。
ディープラーニングベースのシングルイメージスーパーレゾリューション(SISR)アルゴリズムは、全体的な診断フレームワークに革命をもたらした。
本研究は,低周波データから高頻度情報を学習する深層マルチアテンションモジュールを用いたGAN(Generative Adversarial Network)を提案する。
論文 参考訳(メタデータ) (2021-10-22T10:13:46Z) - Multi-Texture GAN: Exploring the Multi-Scale Texture Translation for
Brain MR Images [1.9163481966968943]
既存のアルゴリズムのかなりの割合は、ターゲットスキャナーからテクスチャの詳細を明示的に利用し保存することはできない。
本論文では,再構成イメージをより詳細に強調するために,マルチスケールテクスチャ転送の設計を行う。
本手法は,最先端手法において,プロトコール間あるいはスカンナ間翻訳において優れた結果が得られる。
論文 参考訳(メタデータ) (2021-02-14T19:14:06Z) - Learning Ultrasound Rendering from Cross-Sectional Model Slices for
Simulated Training [13.640630434743837]
計算シミュレーションは、バーチャルリアリティーにおけるそのようなスキルの訓練を容易にする。
インタラクティブな時間に任意のレンダリングやシミュレーションプロセスをバイパスするためにここに提案します。
我々は、専用のジェネレータアーキテクチャと入力供給方式を備えた生成的対向フレームワークを使用する。
論文 参考訳(メタデータ) (2021-01-20T21:58:19Z) - A Comprehensive Comparison of Multi-Dimensional Image Denoising Methods [14.702885691557638]
合成と実世界の両方のデータセットで60以上の手法を比較した。
単純な行列ベースのアルゴリズムは、テンソルと同じような結果が得られることを示す。
合成ガウスノイズで訓練されたいくつかのモデルは、実世界のカラー画像とビデオデータセットに最先端のパフォーマンスを示す。
論文 参考訳(メタデータ) (2020-11-06T16:28:17Z) - Intrinsic Autoencoders for Joint Neural Rendering and Intrinsic Image
Decomposition [67.9464567157846]
合成3Dモデルからリアルな画像を生成するためのオートエンコーダを提案し,同時に実像を本質的な形状と外観特性に分解する。
実験により, レンダリングと分解の併用処理が有益であることが確認され, 画像から画像への翻訳の質的, 定量的なベースラインよりも優れた結果が得られた。
論文 参考訳(メタデータ) (2020-06-29T12:53:58Z) - Attention Based Real Image Restoration [48.933507352496726]
深層畳み込みニューラルネットワークは、合成劣化を含む画像に対してより良い性能を発揮する。
本稿では,新しい1段ブラインド実画像復元ネットワーク(R$2$Net)を提案する。
論文 参考訳(メタデータ) (2020-04-26T04:21:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。