論文の概要: SA-GAN: Structure-Aware Generative Adversarial Network for
Shape-Preserving Synthetic CT Generation
- arxiv url: http://arxiv.org/abs/2105.07044v1
- Date: Fri, 14 May 2021 19:34:23 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-18 14:32:09.505937
- Title: SA-GAN: Structure-Aware Generative Adversarial Network for
Shape-Preserving Synthetic CT Generation
- Title(参考訳): SA-GAN: 形状保存型合成CT生成のための構造認識型汎用ネットワーク
- Authors: Hajar Emami, Ming Dong, Siamak Nejad-Davarani, and Carri Glide-Hurst
- Abstract要約: 本論文では,Structure-Aware Generative Adversarial Network (SA-GAN) を提案する。
SA-GANは、医療画像を生成する際に、一貫性のない構造の形状と位置を保持します。
SA-GANは、シンCTと臓器のセグメンテーションの両方に臨床的に許容できる精度を提供する。
- 参考スコア(独自算出の注目度): 3.905855359082687
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In medical image synthesis, model training could be challenging due to the
inconsistencies between images of different modalities even with the same
patient, typically caused by internal status/tissue changes as different
modalities are usually obtained at a different time. This paper proposes a
novel deep learning method, Structure-aware Generative Adversarial Network
(SA-GAN), that preserves the shapes and locations of in-consistent structures
when generating medical images. SA-GAN is employed to generate synthetic
computed tomography (synCT) images from magnetic resonance imaging (MRI) with
two parallel streams: the global stream translates the input from the MRI to
the CT domain while the local stream automatically segments the inconsistent
organs, maintains their locations and shapes in MRI, and translates the organ
intensities to CT. Through extensive experiments on a pelvic dataset, we
demonstrate that SA-GAN provides clinically acceptable accuracy on both synCTs
and organ segmentation and supports MR-only treatment planning in disease sites
with internal organ status changes.
- Abstract(参考訳): 医用画像合成では、同一患者であっても異なるモダリティの画像間の不整合がモデルトレーニングの課題となり、通常、異なるモダリティが通常異なるタイミングで得られるため、内部状態や組織の変化によって引き起こされる。
本稿では,医用画像生成時の一貫性のない構造の形状と位置を保存できる,新しい深層学習手法である構造認識生成逆ネットワーク(sa-gan)を提案する。
SA-GANは、MRI(MRI)から合成CT(synCT)画像を生成するために用いられる:グローバルストリームはMRIからCT領域への入力を変換し、ローカルストリームは非一貫性の臓器を自動的に分割し、MRI内の位置と形状を維持し、臓器の強度をCTに変換する。
骨盤内データセットの広範な実験を通して,SA-GANはsynCTと臓器のセグメンテーションの両方に対して臨床的に許容できる精度を提供し,内臓器状態の変化を伴う疾患部位におけるMRのみの治療計画を支援することを実証した。
関連論文リスト
- Style transfer between Microscopy and Magnetic Resonance Imaging via
Generative Adversarial Network in small sample size settings [49.84018914962972]
磁気共鳴イメージング(MRI)のクロスモーダル増強と、同じ組織サンプルに基づく顕微鏡イメージングが期待できる。
コンディショナル・ジェネレーティブ・逆境ネットワーク (cGAN) アーキテクチャを用いて, コーパス・カロサムのMRI画像から顕微鏡組織像を生成する方法を検討した。
論文 参考訳(メタデータ) (2023-10-16T13:58:53Z) - Two-stage MR Image Segmentation Method for Brain Tumors based on
Attention Mechanism [27.08977505280394]
CycleGAN(CycleGAN)に基づく協調・空間的注意生成対向ネットワーク(CASP-GAN)を提案する。
ジェネレータの性能は、コーディネート・アテンション(CA)モジュールと空間アテンション(SA)モジュールを導入することで最適化される。
元の医用画像の構造情報と詳細な情報を抽出する能力は、所望の画像をより高品質に生成するのに役立つ。
論文 参考訳(メタデータ) (2023-04-17T08:34:41Z) - SIAN: Style-Guided Instance-Adaptive Normalization for Multi-Organ
Histopathology Image Synthesis [63.845552349914186]
本研究では,異なる臓器に対して,現実的な色分布とテクスチャを合成するためのスタイル誘導型インスタンス適応正規化(SIAN)を提案する。
4つのフェーズは一緒に動作し、生成ネットワークに統合され、イメージセマンティクス、スタイル、インスタンスレベルのバウンダリを埋め込む。
論文 参考訳(メタデータ) (2022-09-02T16:45:46Z) - Context-Aware Transformers For Spinal Cancer Detection and Radiological
Grading [70.04389979779195]
本稿では,脊椎分析に関わる医療画像問題に対するトランスフォーマーを用いた新しいモデルアーキテクチャを提案する。
MR画像におけるそのようなモデルの2つの応用について考察する: (a)脊椎転移の検出と脊椎骨折の関連状況と転移性脊髄圧迫。
画像中の脊椎のコンテキストを考慮することで,SCTは以前に公表したモデルと比較して,いくつかのグレーディングの精度を向上することを示す。
論文 参考訳(メタデータ) (2022-06-27T10:31:03Z) - Weakly-supervised Biomechanically-constrained CT/MRI Registration of the
Spine [72.85011943179894]
本稿では,各脊椎の剛性と容積を保存し,登録精度を最大化しながら,弱教師付き深層学習フレームワークを提案する。
また,CTにおける椎体自動分節化はMRIと対比してより正確な結果をもたらすため,CTラベルマップのみに依存するよう,これらの損失を特に設計する。
以上の結果から, 解剖学的認識による損失の増大は, 精度を維持しつつも, 推測変換の妥当性を高めることが示唆された。
論文 参考訳(メタデータ) (2022-05-16T10:59:55Z) - Unsupervised Image Registration Towards Enhancing Performance and
Explainability in Cardiac And Brain Image Analysis [3.5718941645696485]
モダリティ内およびモダリティ内アフィンおよび非リグイド画像登録は、臨床画像診断において必須の医用画像解析プロセスである。
本稿では、アフィンおよび非剛性変換を正確にモデル化できる教師なしディープラーニング登録手法を提案する。
本手法は,モーダリティ不変の潜在反感を学習するために,双方向のモーダリティ画像合成を行う。
論文 参考訳(メタデータ) (2022-03-07T12:54:33Z) - A unified 3D framework for Organs at Risk Localization and Segmentation
for Radiation Therapy Planning [56.52933974838905]
現在の医療ワークフローは、OAR(Organs-at-risk)のマニュアル記述を必要とする
本研究は,OARローカライゼーション・セグメンテーションのための統合された3Dパイプラインの導入を目的とする。
提案手法は医用画像に固有の3Dコンテキスト情報の活用を可能にする。
論文 参考訳(メタデータ) (2022-03-01T17:08:41Z) - InDuDoNet+: A Model-Driven Interpretable Dual Domain Network for Metal
Artifact Reduction in CT Images [53.4351366246531]
InDuDoNet+と呼ばれる新しい解釈可能な二重ドメインネットワークを構築し、CT画像の微細な埋め込みを行う。
異なる組織間のCT値を分析し,InDuDoNet+の事前観測ネットワークにマージすることで,その一般化性能を著しく向上させる。
論文 参考訳(メタデータ) (2021-12-23T15:52:37Z) - MRI to PET Cross-Modality Translation using Globally and Locally Aware
GAN (GLA-GAN) for Multi-Modal Diagnosis of Alzheimer's Disease [1.7499351967216341]
現実像を合成できるGAN(Generative Adversarial Network)は、標準的なデータ拡張手法の代替として大きな可能性を秘めている。
本稿では,グローバルな構造的整合性と局所的細部への忠実さを両立させるマルチパスアーキテクチャにより,グローバルかつ局所的に認識された画像間変換GAN(GLA-GAN)を提案する。
論文 参考訳(メタデータ) (2021-08-04T16:38:33Z) - ResViT: Residual vision transformers for multi-modal medical image
synthesis [0.0]
本稿では、畳み込み演算子の局所的精度と視覚変換器の文脈的感度を組み合わせ、医用画像合成のための新しい生成逆変換手法ResViTを提案する。
以上の結果から,ResViTと競合する手法の質的観察と定量化の両面での優位性が示唆された。
論文 参考訳(メタデータ) (2021-06-30T12:57:37Z) - Structurally aware bidirectional unpaired image to image translation
between CT and MR [0.14788776577018314]
深層学習技術は、複数の画像モダリティ間の画像変換に画像の可能性を活用するのに役立つ。
これらの技術は、MRI情報のフィードバックにより、CT下で外科的計画を実行するのに役立つ。
論文 参考訳(メタデータ) (2020-06-05T11:21:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。