論文の概要: EAGLE: An Edge-Aware Gradient Localization Enhanced Loss for CT Image Reconstruction
- arxiv url: http://arxiv.org/abs/2403.10695v1
- Date: Fri, 15 Mar 2024 21:28:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-19 22:14:44.701864
- Title: EAGLE: An Edge-Aware Gradient Localization Enhanced Loss for CT Image Reconstruction
- Title(参考訳): EAGLE:CT画像再構成のためのエッジ認識によるグラディエント・ローカライゼーション・ロスの強化
- Authors: Yipeng Sun, Yixing Huang, Linda-Sophie Schneider, Mareike Thies, Mingxuan Gu, Siyuan Mei, Siming Bayer, Andreas Maier,
- Abstract要約: 本稿では,CT画像再構成の視覚的品質向上を目的とした新しい損失関数であるEagle-Lossを提案する。
Eagle-Lossは、勾配変化における局所的特徴のスペクトル分析を適用して、シャープネスと明確に定義されたエッジを強化する。
この結果から,Eagle-Lossは画像の視覚的品質を常に向上し,ネットワークアーキテクチャ全体にわたって最先端の手法を超越していることがわかった。
- 参考スコア(独自算出の注目度): 4.6398987466719035
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Computed Tomography (CT) image reconstruction is crucial for accurate diagnosis and deep learning approaches have demonstrated significant potential in improving reconstruction quality. However, the choice of loss function profoundly affects the reconstructed images. Traditional mean squared error loss often produces blurry images lacking fine details, while alternatives designed to improve may introduce structural artifacts or other undesirable effects. To address these limitations, we propose Eagle-Loss, a novel loss function designed to enhance the visual quality of CT image reconstructions. Eagle-Loss applies spectral analysis of localized features within gradient changes to enhance sharpness and well-defined edges. We evaluated Eagle-Loss on two public datasets across low-dose CT reconstruction and CT field-of-view extension tasks. Our results show that Eagle-Loss consistently improves the visual quality of reconstructed images, surpassing state-of-the-art methods across various network architectures. Code and data are available at \url{https://github.com/sypsyp97/Eagle_Loss}.
- Abstract(参考訳): CT画像再構成は正確な診断に不可欠であり, 深層学習アプローチは, 再現性の向上に有意な可能性を示唆している。
しかし、損失関数の選択は、再構成された画像に大きく影響する。
従来の平均二乗誤差損失は、細部を欠いたぼやけたイメージをしばしば生み出すが、改良するために設計された代替手段は、構造的アーティファクトやその他の望ましくない効果をもたらす可能性がある。
これらの制約に対処するために,CT画像再構成の視覚的品質向上を目的とした新しい損失関数であるEagle-Lossを提案する。
Eagle-Lossは、勾配変化における局所的特徴のスペクトル分析を適用して、シャープネスと明確に定義されたエッジを強化する。
低用量CT再構成とCTフィールド・オブ・ビュー拡張タスクの2つの公開データセットについてEagle-Lossの評価を行った。
この結果から,Eagle-Lossは画像の視覚的品質を常に向上し,ネットワークアーキテクチャ全体にわたって最先端の手法を超越していることがわかった。
コードとデータは \url{https://github.com/sypsyp97/Eagle_Loss} で公開されている。
関連論文リスト
- XctDiff: Reconstruction of CT Images with Consistent Anatomical Structures from a Single Radiographic Projection Image [4.169099546864143]
XctDiffは、単一のラジオグラフからCTを再構成するためのアルゴリズムフレームワークである。
まず,ロバストな3D先行情報を抽出できるプログレッシブな特徴抽出戦略を設計する。
次に,抽出した先行情報を用いて,潜伏空間におけるCT再構成を誘導する。
論文 参考訳(メタデータ) (2024-06-07T06:50:19Z) - Enhancing signal detectability in learning-based CT reconstruction with
a model observer inspired loss function [0.26249027950824505]
本稿では,再建過程における弱い信号の検出可能性を高めるために,モデルオブザーバフレームワークにヒントを得た新たなトレーニング損失を導入する。
本研究は, 乳房CT画像から得られたスパース画像の再構成に対するアプローチを検証し, 信号検出性の向上を実証するものである。
論文 参考訳(メタデータ) (2024-02-15T15:18:06Z) - DiAD: A Diffusion-based Framework for Multi-class Anomaly Detection [55.48770333927732]
本稿では,拡散型異常検出(Difusion-based Anomaly Detection, DAD)フレームワークを提案する。
画素空間オートエンコーダ、安定拡散の復調ネットワークに接続する潜在空間セマンティックガイド(SG)ネットワーク、特徴空間事前学習機能抽出器から構成される。
MVTec-ADとVisAデータセットの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2023-12-11T18:38:28Z) - AugUndo: Scaling Up Augmentations for Monocular Depth Completion and Estimation [51.143540967290114]
本研究では,教師なし深度計算と推定のために,従来不可能であった幾何拡張の幅広い範囲をアンロックする手法を提案する。
これは、出力深さの座標への幾何変換を反転、あるいはアンドウイング(undo''-ing)し、深度マップを元の参照フレームに戻すことで達成される。
論文 参考訳(メタデータ) (2023-10-15T05:15:45Z) - Reconstruction Distortion of Learned Image Compression with
Imperceptible Perturbations [69.25683256447044]
本稿では,学習画像圧縮(lic)の再構成品質を効果的に劣化させる攻撃手法を提案する。
我々は,Frobeniusノルムに基づく損失関数を導入して,元の画像と再構成された逆例との差を最大化することによって,逆例を生成する。
様々なlicモデルを用いてKodakデータセット上で実験を行った結果,有効性が確認された。
論文 参考訳(メタデータ) (2023-06-01T20:21:05Z) - Exploring Resolution and Degradation Clues as Self-supervised Signal for
Low Quality Object Detection [77.3530907443279]
劣化した低解像度画像中の物体を検出するための,新しい自己教師型フレームワークを提案する。
本手法は, 既存手法と比較して, 異変劣化状況に直面する場合に比べ, 優れた性能を示した。
論文 参考訳(メタデータ) (2022-08-05T09:36:13Z) - DuDoTrans: Dual-Domain Transformer Provides More Attention for Sinogram
Restoration in Sparse-View CT Reconstruction [13.358197688568463]
撮像過程におけるヨウ素の放射線は 不可逆的な損傷を引き起こす
スパースビューCT画像に現れるアーティファクトを緩和する反復モデルが提案されているが,コストが高すぎる。
textbfDual-textbfDomain textbfDuDoTransを提案する。
論文 参考訳(メタデータ) (2021-11-21T10:41:07Z) - Spatially-Adaptive Image Restoration using Distortion-Guided Networks [51.89245800461537]
空間的に変化する劣化に苦しむ画像の復元のための学習ベースソリューションを提案する。
本研究では、歪み局所化情報を活用し、画像中の困難な領域に動的に適応するネットワーク設計であるSPAIRを提案する。
論文 参考訳(メタデータ) (2021-08-19T11:02:25Z) - Limited View Tomographic Reconstruction Using a Deep Recurrent Framework
with Residual Dense Spatial-Channel Attention Network and Sinogram
Consistency [25.16002539710169]
本稿では,同じブロックを複数回積み重ねる新しい繰り返し再構成フレームワークを提案する。
本研究では, 再帰的なブロックの中間出力のシングラムと一致するように, リカレント・フレームワークにインターリーブされたシングラム整合層を構築した。
本アルゴリズムは, 狭角化と狭角化の両面において, 既存の最先端のニューラル手法よりも一貫した, 顕著な改善を実現している。
論文 参考訳(メタデータ) (2020-09-03T16:39:48Z) - Structure-Preserving Super Resolution with Gradient Guidance [87.79271975960764]
単一画像超解像(SISR)の構造
最近のGAN(Generative Adversarial Network)による研究は、SISRの開発を促進している。
しかし、復元された画像には常に望ましくない構造歪みがある。
論文 参考訳(メタデータ) (2020-03-29T17:26:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。