論文の概要: Anatomical feature-prioritized loss for enhanced MR to CT translation
- arxiv url: http://arxiv.org/abs/2410.10328v1
- Date: Thu, 24 Oct 2024 20:28:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-10-29 22:14:39.931899
- Title: Anatomical feature-prioritized loss for enhanced MR to CT translation
- Title(参考訳): 造影MRIからCTへの変換における解剖学的特徴優先損失の検討
- Authors: Arthur Longuefosse, Baudouin Denis de Senneville, Gael Dournes, Ilyes Benlala, Pascal Desbarats, Fabien Baldacci,
- Abstract要約: 画像翻訳と合成の伝統的な方法は、一般的にグローバルな画像再構成に最適化されている。
本研究は、新しい解剖学的特徴優先化(AFP)損失関数を合成プロセスに導入する。
AFP損失関数は、グローバルな再構成手法を置き換え、補うことができ、グローバルなイメージの忠実さと局所的な構造的詳細の両方にバランスよく重点を置いている。
- 参考スコア(独自算出の注目度): 0.0479796063938004
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In medical image synthesis, the precision of localized structural details is crucial, particularly when addressing specific clinical requirements such as the identification and measurement of fine structures. Traditional methods for image translation and synthesis are generally optimized for global image reconstruction but often fall short in providing the finesse required for detailed local analysis. This study represents a step toward addressing this challenge by introducing a novel anatomical feature-prioritized (AFP) loss function into the synthesis process. This method enhances reconstruction by focusing on clinically significant structures, utilizing features from a pre-trained model designed for a specific downstream task, such as the segmentation of particular anatomical regions. The AFP loss function can replace or complement global reconstruction methods, ensuring a balanced emphasis on both global image fidelity and local structural details. Various implementations of this loss function are explored, including its integration into different synthesis networks such as GAN-based and CNN-based models. Our approach is applied and evaluated in two contexts: lung MR to CT translation, focusing on high-quality reconstruction of bronchial structures, using a private dataset; and pelvis MR to CT synthesis, targeting the accurate representation of organs and muscles, utilizing a public dataset from the Synthrad2023 challenge. We leverage embeddings from pre-trained segmentation models specific to these anatomical regions to demonstrate the capability of the AFP loss to prioritize and accurately reconstruct essential features. This tailored approach shows promising potential for enhancing the specificity and practicality of medical image synthesis in clinical applications.
- Abstract(参考訳): 医用画像合成では、特に微細構造の同定や測定などの特定の臨床要件に対処する場合、局所的な構造詳細の精度が不可欠である。
画像翻訳と合成の伝統的な手法は、一般的にグローバルな画像再構成に最適化されているが、詳細な局所解析に必要な細部を提供するには不十分であることが多い。
本研究は、新しい解剖学的特徴優先化(AFP)損失関数を合成プロセスに導入することにより、この問題に対処するためのステップを示す。
本手法は、特定の解剖学的領域のセグメンテーションなど、特定の下流タスク用に設計された訓練済みモデルの特徴を利用して、臨床的に重要な構造に焦点をあてて再構築を促進する。
AFP損失関数は、グローバルな再構成手法を置き換え、補うことができ、グローバルなイメージの忠実さと局所的な構造的詳細の両方にバランスよく重点を置いている。
この損失関数の様々な実装について検討し、GANベースやCNNベースモデルなど、異なる合成ネットワークに統合されている。
肺 MR から CT への変換,プライベートデータセットを用いた気管支構造の高品質な再構築,臓器と筋肉の正確な表現を目標とした pelvis MR から CT への合成,Synthrad2023 チャレンジからの公開データセットの利用,の2つの文脈で適用および評価を行った。
これらの解剖学的領域に特有の訓練済みセグメンテーションモデルからの埋め込みを利用して、本質的な特徴を優先的かつ正確に再構築するAFP損失の能力を実証する。
この調整されたアプローチは、臨床応用における医用画像合成の特異性と実用性を高める有望な可能性を示している。
関連論文リスト
- GAN-Based Architecture for Low-dose Computed Tomography Imaging Denoising [1.0138723409205497]
GAN(Generative Adversarial Networks)は低線量CT(LDCT)領域における革命的要素として浮上している。
本総説では,GANに基づくLDCT復調技術の急速な進歩を概観する。
論文 参考訳(メタデータ) (2024-11-14T15:26:10Z) - A Quantitative Evaluation of Dense 3D Reconstruction of Sinus Anatomy
from Monocular Endoscopic Video [8.32570164101507]
内視鏡的シーケンスと光学的トラッキングを用いた洞再建のための自己教師型アプローチの定量的解析を行った。
以上の結果から, 生成した復元は解剖学的に高い一致を示し, 平均点間誤差は0.91mmであった。
ポーズと深さ推定の不正確さがこの誤りに等しく寄与し、より短い軌跡を持つ局所的に一貫したシーケンスがより正確な再構成をもたらすことを確認した。
論文 参考訳(メタデータ) (2023-10-22T17:11:40Z) - K-Space-Aware Cross-Modality Score for Synthesized Neuroimage Quality
Assessment [71.27193056354741]
クロスモダリティな医用画像合成をどう評価するかという問題は、ほとんど解明されていない。
本稿では,この課題の進展を促すため,新しい指標K-CROSSを提案する。
K-CROSSは、トレーニング済みのマルチモードセグメンテーションネットワークを使用して、病変の位置を予測する。
論文 参考訳(メタデータ) (2023-07-10T01:26:48Z) - Abdominal organ segmentation via deep diffeomorphic mesh deformations [5.4173776411667935]
CTとMRIによる腹部臓器の分節は,手術計画とコンピュータ支援ナビゲーションシステムにとって必須の要件である。
肝, 腎, 膵, 脾の分節に対するテンプレートベースのメッシュ再構成法を応用した。
結果として得られたUNetFlowは4つの器官すべてによく当てはまり、新しいデータに基づいて簡単に微調整できる。
論文 参考訳(メタデータ) (2023-06-27T14:41:18Z) - Region-based Contrastive Pretraining for Medical Image Retrieval with
Anatomic Query [56.54255735943497]
医用画像検索のための地域別コントラスト事前トレーニング(RegionMIR)
医用画像検索のための領域ベースコントラスト事前トレーニング(RegionMIR)について紹介する。
論文 参考訳(メタデータ) (2023-05-09T16:46:33Z) - A Hybrid Approach to Full-Scale Reconstruction of Renal Arterial Network [5.953404851562665]
腎血管ネットワークの主観的なモデルを構築するためのハイブリッドフレームワークを提案する。
我々は,大動脈の半自動分割と微小CTスキャンによる大脳皮質領域の推定を出発点として用いた。
ラット腎から得られた再建データと既存の解剖学的データとの統計的対応性を示した。
論文 参考訳(メタデータ) (2023-03-03T10:39:25Z) - Orientation-Shared Convolution Representation for CT Metal Artifact
Learning [63.67718355820655]
X線CT(CT)スキャン中、患者を乗せた金属インプラントは、しばしば有害なアーティファクトに繋がる。
既存のディープラーニングベースの手法は、有望な再構築性能を得た。
本稿では,人工物の物理的事前構造に適応するために,配向型畳み込み表現戦略を提案する。
論文 参考訳(メタデータ) (2022-12-26T13:56:12Z) - InDuDoNet+: A Model-Driven Interpretable Dual Domain Network for Metal
Artifact Reduction in CT Images [53.4351366246531]
InDuDoNet+と呼ばれる新しい解釈可能な二重ドメインネットワークを構築し、CT画像の微細な埋め込みを行う。
異なる組織間のCT値を分析し,InDuDoNet+の事前観測ネットワークにマージすることで,その一般化性能を著しく向上させる。
論文 参考訳(メタデータ) (2021-12-23T15:52:37Z) - Specificity-Preserving Federated Learning for MR Image Reconstruction [94.58912814426122]
統合学習は、磁気共鳴(MR)画像再構成におけるデータのプライバシーと効率を改善するために使用できる。
近年のFL技術は、グローバルモデルの一般化を強化することで、この問題を解決する傾向にある。
MR画像再構成のための特異性保存FLアルゴリズム(FedMRI)を提案する。
論文 参考訳(メタデータ) (2021-12-09T22:13:35Z) - Data-driven generation of plausible tissue geometries for realistic
photoacoustic image synthesis [53.65837038435433]
光音響トモグラフィ(pat)は形態的および機能的組織特性を回復する可能性がある。
我々は,PATデータシミュレーションの新たなアプローチを提案し,これを「シミュレーションの学習」と呼ぶ。
我々は、意味的注釈付き医療画像データに基づいて訓練されたGAN(Generative Adversarial Networks)の概念を活用して、可塑性組織ジオメトリを生成する。
論文 参考訳(メタデータ) (2021-03-29T11:30:18Z) - Learning to Segment Anatomical Structures Accurately from One Exemplar [34.287877547953194]
大量の注釈付きトレーニング画像を用いることなく、正確な解剖学的構造セグメンテーションを作成できる方法は、非常に望ましい。
本研究では,自然に組み込まれたループ機構を備えたワンショット解剖セグメントであるContour Transformer Network (CTN)を提案する。
筆者らのワンショット学習法は,非学習に基づく手法を著しく上回り,最先端の完全教師付きディープラーニングアプローチと競争的に機能することを示した。
論文 参考訳(メタデータ) (2020-07-06T20:27:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。