論文の概要: Beam Geometry and Input Dimensionality: Impact on Sparse-Sampling Artifact Correction for Clinical CT with U-Nets
- arxiv url: http://arxiv.org/abs/2508.17961v1
- Date: Mon, 25 Aug 2025 12:21:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-26 18:43:45.770543
- Title: Beam Geometry and Input Dimensionality: Impact on Sparse-Sampling Artifact Correction for Clinical CT with U-Nets
- Title(参考訳): ビーム形状と入力次元:U-Netを用いた臨床CTにおけるスパースサンプリングアーチファクト補正への影響
- Authors: Tina Dorosti, Johannes Thalhammer, Sebastian Peterhansl, Daniela Pfeiffer, Franz Pfeiffer, Florian Schaff,
- Abstract要約: 本研究は,U-Netを用いたスパース・サンプリング・ストリーク・アーティファクト修正作業における各種ビーム・ジオメトリと入力データの次元の影響について検討することを目的とする。
平行, ファン, コーンビーム測位のためのAstraツールボックスを用いて, 疎サンプリングCTボリュームをシミュレートした。
2Dと3DのU-Netは14日にトレーニングされ、それぞれ8つの被験者でテストされた。
- 参考スコア(独自算出の注目度): 3.460998655164144
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This study aims to investigate the effect of various beam geometries and dimensions of input data on the sparse-sampling streak artifact correction task with U-Nets for clinical CT scans as a means of incorporating the volumetric context into artifact reduction tasks to improve model performance. A total of 22 subjects were retrospectively selected (01.2016-12.2018) from the Technical University of Munich's research hospital, TUM Klinikum rechts der Isar. Sparsely-sampled CT volumes were simulated with the Astra toolbox for parallel, fan, and cone beam geometries. 2048 views were taken as full-view scans. 2D and 3D U-Nets were trained and validated on 14, and tested on 8 subjects, respectively. For the dimensionality study, in addition to the 512x512 2D CT images, the CT scans were further pre-processed to generate a so-called '2.5D', and 3D data: Each CT volume was divided into 64x64x64 voxel blocks. The 3D data refers to individual 64-voxel blocks. An axial, coronal, and sagittal cut through the center of each block resulted in three 64x64 2D patches that were rearranged as a single 64x64x3 image, proposed as 2.5D data. Model performance was assessed with the mean squared error (MSE) and structural similarity index measure (SSIM). For all geometries, the 2D U-Net trained on axial 2D slices results in the best MSE and SSIM values, outperforming the 2.5D and 3D input data dimensions.
- Abstract(参考訳): 本研究の目的は, 容積コンテキストをアーティファクト縮小タスクに組み込んで, モデル性能を向上させるために, U-Net を用いたスパースサンプリング・ストリークアーチファクト修正タスクにおける, 各種ビーム測地と入力データの寸法の影響について検討することである。
ミュンヘン工科大学の研究病院であるTUM Klinikum rechts der Isarから、計22人の被験者が振り返って選ばれた(01.2016-12.2018)。
平行, ファン, コーンビーム測位のためのAstraツールボックスを用いて, 疎サンプリングCTボリュームをシミュレートした。
2048年のビューはフルビュースキャンとして扱われた。
2Dと3DのU-Netは14日にトレーニングされ、それぞれ8つの被験者でテストされた。
512x5122DのCT画像に加え、CTスキャンはいわゆる2.5Dと3Dデータを生成するためにさらに前処理され、各CT容積は64x64x64のボクセルブロックに分割された。
3Dデータは個々の64ボクセルブロックを指す。
それぞれのブロックの中心を通る軸線、コロナ線、矢状線を切断すると、3つの64x642Dパッチが1枚の64x64x3画像として再配置され、2.5Dデータとして提案された。
モデル性能を平均二乗誤差(MSE)と構造類似度指標(SSIM)を用いて評価した。
すべてのジオメトリに対して、軸方向の2Dスライスで訓練された2D U-Netは、最高のMSEおよびSSIM値となり、2.5Dおよび3D入力データ次元を上回る。
関連論文リスト
- MInDI-3D: Iterative Deep Learning in 3D for Sparse-view Cone Beam Computed Tomography [0.14230408567589548]
MInDI-3Dは実世界のスパースビューコーンビームCT(CBCT)アーティファクト除去のための最初の3次元条件拡散モデルである。
以上よりMInDI-3Dの有効性が示され,12.96 (6.10) dB PSNR が未修正スキャンより向上した。
臨床医は、すべての解剖学的部位にまたがる患者の位置決めに十分なモデルとして、我々のモデルを評価した。
論文 参考訳(メタデータ) (2025-08-13T08:49:18Z) - Cross-Dimensional Medical Self-Supervised Representation Learning Based on a Pseudo-3D Transformation [68.60747298865394]
擬似3D変換(CDSSL-P3D)に基づく新しい三次元SSLフレームワークを提案する。
具体的には、2D画像を3Dデータに整合したフォーマットに変換するim2colアルゴリズムに基づく画像変換を提案する。
この変換は2次元および3次元データのシームレスな統合を可能にし、3次元医用画像解析のための相互教師あり学習を容易にする。
論文 参考訳(メタデータ) (2024-06-03T02:57:25Z) - Deep-Learning-based Fast and Accurate 3D CT Deformable Image
Registration in Lung Cancer [14.31661366393592]
腫瘍の視認性は、患者の3D解剖が2D平面に投影されるため制限される。
治療位置において、治療アイソセンタで得られたkV画像から3DCT画像を再構成する。
患者固有の視覚変換器ベースのネットワークを開発し,精度と効率性を示した。
論文 参考訳(メタデータ) (2023-04-21T17:18:21Z) - Joint-MAE: 2D-3D Joint Masked Autoencoders for 3D Point Cloud
Pre-training [65.75399500494343]
Masked Autoencoders (MAE) は、2Dおよび3Dコンピュータビジョンのための自己教師型学習において有望な性能を示した。
自己監督型3次元点雲事前学習のための2D-3DジョイントMAEフレームワークであるJoint-MAEを提案する。
論文 参考訳(メタデータ) (2023-02-27T17:56:18Z) - 2D/3D Deep Image Registration by Learning 3D Displacement Fields for
Abdominal Organs [1.9949261242626626]
本稿では,3Dボリュームと単一視点2D投影画像間の2D/3D変形可能な画像登録を実現する教師付きディープラーニングフレームワークを提案する。
提案手法は,対象2次元投影画像と初期3次元体積から3次元変位場への変換を学習する。
論文 参考訳(メタデータ) (2022-12-11T08:36:23Z) - 2D and 3D CT Radiomic Features Performance Comparison in
Characterization of Gastric Cancer: A Multi-center Study [11.015650919856117]
胃癌(GC)における2次元および3次元放射線特徴の表現と識別能力の比較を行った。
2次元放射能特性で構築されたモデルでは、GCを特徴付ける3次元特徴で構築されたモデルと同等の性能を示した。
論文 参考訳(メタデータ) (2022-10-29T16:09:07Z) - Simultaneous Alignment and Surface Regression Using Hybrid 2D-3D
Networks for 3D Coherent Layer Segmentation of Retina OCT Images [33.99874168018807]
本研究では,ハイブリッド2D-3D畳み込みニューラルネットワーク(CNN)を用いた新しいフレームワークを提案し,OCTから連続した3次元網膜層表面を得る。
本フレームワークは, 層分割精度とクロスBスキャン3D連続性の両方の観点から, 最先端の2D手法よりも優れた結果が得られる。
論文 参考訳(メタデータ) (2022-03-04T15:55:09Z) - Automated Model Design and Benchmarking of 3D Deep Learning Models for
COVID-19 Detection with Chest CT Scans [72.04652116817238]
3D胸部CTスキャン分類のための3D DLモデルを自動的に検索するための差別化可能なニューラルネットワーク探索(DNAS)フレームワークを提案する。
また,我々のモデルのクラスアクティベーションマッピング(cam)技術を利用して,結果の解釈可能性を提供する。
論文 参考訳(メタデータ) (2021-01-14T03:45:01Z) - Revisiting 3D Context Modeling with Supervised Pre-training for
Universal Lesion Detection in CT Slices [48.85784310158493]
CTスライスにおける普遍的病変検出のための3Dコンテキスト強化2D特徴を効率的に抽出するための修飾擬似3次元特徴ピラミッドネットワーク(MP3D FPN)を提案する。
新たな事前学習手法により,提案したMP3D FPNは,DeepLesionデータセット上での最先端検出性能を実現する。
提案された3Dプリトレーニングウェイトは、他の3D医療画像分析タスクのパフォーマンスを高めるために使用できる。
論文 参考訳(メタデータ) (2020-12-16T07:11:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。