論文の概要: Are Pixel-Wise Metrics Reliable for Sparse-View Computed Tomography Reconstruction?
- arxiv url: http://arxiv.org/abs/2506.02093v1
- Date: Mon, 02 Jun 2025 17:07:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:34.911667
- Title: Are Pixel-Wise Metrics Reliable for Sparse-View Computed Tomography Reconstruction?
- Title(参考訳): Sparse-View Computed Tomography における Pixel-Wise Metrics の信頼性
- Authors: Tianyu Lin, Xinran Li, Chuntung Zhuang, Qi Chen, Yuanhao Cai, Kai Ding, Alan L. Yuille, Zongwei Zhou,
- Abstract要約: 解剖学的構造全体にわたる構造的完全性を評価するために,解剖学的評価尺度の組を提案する。
CAREは、重要な構造物の解剖学的保存を促進するために、訓練中に構造的罰則を取り入れている。
CAREはCT再建における構造的完全性を大幅に改善し、大臓器では+32%、小臓器では+22%、小腸では+40%、血管では+36%となる。
- 参考スコア(独自算出の注目度): 50.68335638232752
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Widely adopted evaluation metrics for sparse-view CT reconstruction--such as Structural Similarity Index Measure and Peak Signal-to-Noise Ratio--prioritize pixel-wise fidelity but often fail to capture the completeness of critical anatomical structures, particularly small or thin regions that are easily missed. To address this limitation, we propose a suite of novel anatomy-aware evaluation metrics designed to assess structural completeness across anatomical structures, including large organs, small organs, intestines, and vessels. Building on these metrics, we introduce CARE, a Completeness-Aware Reconstruction Enhancement framework that incorporates structural penalties during training to encourage anatomical preservation of significant structures. CARE is model-agnostic and can be seamlessly integrated into analytical, implicit, and generative methods. When applied to these methods, CARE substantially improves structural completeness in CT reconstructions, achieving up to +32% improvement for large organs, +22% for small organs, +40% for intestines, and +36% for vessels.
- Abstract(参考訳): スパースビューCT再構成のための広く採用されている評価指標として、構造類似度指標(Structure similarity Index Measure)やピーク信号対ノイズ比(Peak Signal-to-Noise Ratio)がある。
この制限に対処するために,大臓器,小臓器,小腸,血管を含む解剖学的構造全体にわたって構造的完全性を評価するために設計された,新しい解剖学的評価指標群を提案する。
これらの指標に基づいて,本研究は,重要な構造物の解剖学的保存を促進するために,トレーニング中に構造的罰則を組み込んだ完全性意識再構築強化フレームワークであるCAREを紹介する。
CAREはモデルに依存しず、分析的、暗黙的、生成的手法にシームレスに統合することができる。
これらの方法を適用すると、CAREはCT再建における構造的完全性を大幅に改善し、大臓器では+32%、小臓器では+22%、小腸では+40%、血管では+36%となる。
関連論文リスト
- A Continual Learning-driven Model for Accurate and Generalizable Segmentation of Clinically Comprehensive and Fine-grained Whole-body Anatomies in CT [67.34586036959793]
完全に注釈付きCTデータセットは存在せず、すべての解剖学がトレーニングのために記述されている。
完全解剖を分割できる連続学習駆動CTモデルを提案する。
単体CT分割モデルCL-Netは, 臨床的に包括的に包括的に235個の粒状体解剖の集合を高精度に分割することができる。
論文 参考訳(メタデータ) (2025-03-16T23:55:02Z) - Anatomical feature-prioritized loss for enhanced MR to CT translation [0.0479796063938004]
画像翻訳と合成の伝統的な方法は、一般的にグローバルな画像再構成に最適化されている。
本研究は、新しい解剖学的特徴優先化(AFP)損失関数を合成プロセスに導入する。
AFP損失関数は、グローバルな再構成手法を置き換え、補うことができ、グローバルなイメージの忠実さと局所的な構造的詳細の両方にバランスよく重点を置いている。
論文 参考訳(メタデータ) (2024-10-14T09:40:52Z) - Anatomy-guided Pathology Segmentation [56.883822515800205]
本研究では, 解剖学的特徴と病理学的情報を組み合わせた汎用的セグメンテーションモデルを構築し, 病理学的特徴のセグメンテーション精度を高めることを目的とする。
我々の解剖学・病理学交流(APEx)訓練では,ヒト解剖学の問合せ表現に結合特徴空間をデコードする問合せベースのセグメンテーション変換器を用いている。
これにより、FDG-PET-CTとChest X-Rayの病理分類タスクにおいて、強力なベースライン法に比べて最大3.3%のマージンで、ボード全体で最高の結果を報告できる。
論文 参考訳(メタデータ) (2024-07-08T11:44:15Z) - LOOC: Localizing Organs using Occupancy Networks and Body Surface Depth Images [2.104687387907779]
人体外から採取した1つの深度画像から,67の解剖学的構造を正確に同定するための新しいアプローチを提案する。
提案手法は多クラス占有ネットワークを用いて, 身体部位の変化を付加したセグメントCTスキャンを用いて訓練し, 密集した内臓器を扱うための特別なサンプリング戦略を取り入れた。
論文 参考訳(メタデータ) (2024-06-18T08:57:36Z) - Two-View Topogram-Based Anatomy-Guided CT Reconstruction for Prospective
Risk Minimization [6.143855587452395]
GAN(Generative Adversarial Network)に基づくCT再構成モデルを提案する。
GANは3Dボリュームを前方と外側のCTプロジェクションから再構成するように訓練されている。
提案手法は,PSNRが26.49,RMSEが196.17,SSIMが0.64,SSIMが26.21,201.55,0.63でCTボリュームを再構成できる。
論文 参考訳(メタデータ) (2024-01-23T12:53:37Z) - A Quantitative Evaluation of Dense 3D Reconstruction of Sinus Anatomy
from Monocular Endoscopic Video [8.32570164101507]
内視鏡的シーケンスと光学的トラッキングを用いた洞再建のための自己教師型アプローチの定量的解析を行った。
以上の結果から, 生成した復元は解剖学的に高い一致を示し, 平均点間誤差は0.91mmであった。
ポーズと深さ推定の不正確さがこの誤りに等しく寄与し、より短い軌跡を持つ局所的に一貫したシーケンスがより正確な再構成をもたらすことを確認した。
論文 参考訳(メタデータ) (2023-10-22T17:11:40Z) - Towards Unifying Anatomy Segmentation: Automated Generation of a
Full-body CT Dataset via Knowledge Aggregation and Anatomical Guidelines [113.08940153125616]
我々は533巻のボクセルレベルのラベルを142ドル(約1万2000円)で、全身CTスキャンのデータセットを作成し、解剖学的包括的カバレッジを提供する。
提案手法はラベル集約段階において手作業によるアノテーションに依存しない。
我々はCTデータに142ドルの解剖学的構造を予測できる統一解剖学的セグメンテーションモデルをリリースする。
論文 参考訳(メタデータ) (2023-07-25T09:48:13Z) - Structure-aware registration network for liver DCE-CT images [50.28546654316009]
セグメント化誘導深層登録網に関連臓器の構造情報を組み込んだ構造認識型登録手法を提案する。
提案手法は,最新技術よりも高い登録精度を達成し,解剖学的構造を効果的に維持することができる。
論文 参考訳(メタデータ) (2023-03-08T14:08:56Z) - Deep Reinforcement Learning for Organ Localization in CT [59.23083161858951]
我々はCTにおける臓器局所化のための深層強化学習手法を提案する。
この研究において、人工エージェントは、その主張や誤りから学習することで、CT内の臓器の局所化を積極的に行う。
本手法は,任意の臓器をローカライズするためのプラグイン・アンド・プレイモジュールとして利用できる。
論文 参考訳(メタデータ) (2020-05-11T10:06:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。