論文の概要: Transesophageal Echocardiography Generation using Anatomical Models
- arxiv url: http://arxiv.org/abs/2410.06781v1
- Date: Wed, 9 Oct 2024 11:20:28 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-01 03:40:32.194896
- Title: Transesophageal Echocardiography Generation using Anatomical Models
- Title(参考訳): 解剖モデルを用いた経食道心エコー法
- Authors: Emmanuel Oladokun, Musa Abdulkareem, Jurica Šprem, Vicente Grau,
- Abstract要約: 合成TEE画像と対応するセマンティックラベルを生成するパイプラインを開発する。
In the pipeline's unpaired image-to-image (I2I) translation section, we explore two generative methods。
合成画像を用いてデータセットを拡大すると、ダイススコアが最大10%向上する。
- 参考スコア(独自算出の注目度): 0.5679566039341877
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Through automation, deep learning (DL) can enhance the analysis of transesophageal echocardiography (TEE) images. However, DL methods require large amounts of high-quality data to produce accurate results, which is difficult to satisfy. Data augmentation is commonly used to tackle this issue. In this work, we develop a pipeline to generate synthetic TEE images and corresponding semantic labels. The proposed data generation pipeline expands on an existing pipeline that generates synthetic transthoracic echocardiography images by transforming slices from anatomical models into synthetic images. We also demonstrate that such images can improve DL network performance through a left-ventricle semantic segmentation task. For the pipeline's unpaired image-to-image (I2I) translation section, we explore two generative methods: CycleGAN and contrastive unpaired translation. Next, we evaluate the synthetic images quantitatively using the Fr\'echet Inception Distance (FID) Score and qualitatively through a human perception quiz involving expert cardiologists and the average researcher. In this study, we achieve a dice score improvement of up to 10% when we augment datasets with our synthetic images. Furthermore, we compare established methods of assessing unpaired I2I translation and observe a disagreement when evaluating the synthetic images. Finally, we see which metric better predicts the generated data's efficacy when used for data augmentation.
- Abstract(参考訳): 経食道心エコー図(TEE)画像の解析は,自動化により深層学習(DL)により促進される。
しかし、DL法は正確な結果を得るために大量の高品質なデータを必要とするため、満足し難い。
データ拡張は、この問題に対処するために一般的に使用される。
本研究では,合成TEE画像と対応するセマンティックラベルを生成するパイプラインを開発する。
提案したデータ生成パイプラインは、解剖学的モデルから合成画像へのスライス変換により、合成経胸壁心エコー画像を生成する既存のパイプライン上に拡張される。
また, 左室セマンティックセグメンテーションタスクにより, DLネットワークの性能を向上できることを示す。
In the pipeline's unpaired image-to-image (I2I) translation section, we explore two generative methods: CycleGAN and contrastive unpaired translation。
次に、Fr'echet Inception Distance(FID)スコアを用いて、専門家と平均研究者による人間の知覚クイズを用いて、定量的に合成画像を評価する。
本研究では,合成画像を用いてデータセットを増大させた場合,ダイススコアを最大10%向上させる。
さらに,不適切なI2I翻訳の評価方法と,合成画像の評価において不一致を観察する方法を比較した。
最後に、データ拡張に使用する場合、どの指標が生成されたデータの有効性をよりよく予測するかを確認します。
関連論文リスト
- Vision-Language Synthetic Data Enhances Echocardiography Downstream Tasks [4.1942958779358674]
本稿では,近年の視覚言語モデルを用いて,多彩でリアルな人工心エコー画像データを作成する。
合成データに含まれるリッチな文脈情報は、下流タスクの精度と解釈可能性を高める可能性があることを示す。
論文 参考訳(メタデータ) (2024-03-28T23:26:45Z) - CathFlow: Self-Supervised Segmentation of Catheters in Interventional Ultrasound Using Optical Flow and Transformers [66.15847237150909]
縦型超音波画像におけるカテーテルのセグメンテーションのための自己教師型ディープラーニングアーキテクチャを提案する。
ネットワークアーキテクチャは、Attention in Attentionメカニズムで構築されたセグメンテーショントランスフォーマであるAiAReSeg上に構築されている。
我々は,シリコンオルタファントムから収集した合成データと画像からなる実験データセット上で,我々のモデルを検証した。
論文 参考訳(メタデータ) (2024-03-21T15:13:36Z) - A Domain Translation Framework with an Adversarial Denoising Diffusion
Model to Generate Synthetic Datasets of Echocardiography Images [0.5999777817331317]
臨床研究に好適な心エコー画像を作成するための枠組みを提案する。
いくつかのドメイン翻訳操作において、このような生成モデルによって高品質な画像サンプルを合成できることが確認された。
論文 参考訳(メタデータ) (2024-03-07T15:58:03Z) - LOTUS: Learning to Optimize Task-based US representations [39.81131738128329]
超音波画像における臓器の解剖学的セグメンテーションは多くの臨床応用に不可欠である。
既存のディープニューラルネットワークは、臨床的に許容できるパフォーマンスを達成するために、トレーニングのために大量のラベル付きデータを必要とする。
本稿では,タスクベース超音速画像表現を最適化する学習手法を提案する。
論文 参考訳(メタデータ) (2023-07-29T16:29:39Z) - Mask-conditioned latent diffusion for generating gastrointestinal polyp
images [2.027538200191349]
本研究では,与えられたセグメンテーションマスクに条件付き合成GIポリプ画像を生成する条件付きDPMフレームワークを提案する。
本システムでは,ポリプの接地真実マスクを用いて,無限個の高忠実度合成ポリプ画像を生成することができる。
以上の結果から,実データと合成データの両方からなるトレーニングデータから,DeepLabv3+から0.7751の最適マイクロイモージョンIOUが得られた。
論文 参考訳(メタデータ) (2023-04-11T14:11:17Z) - OADAT: Experimental and Synthetic Clinical Optoacoustic Data for
Standardized Image Processing [62.993663757843464]
オプトアコースティック(OA)イメージングは、ナノ秒レーザーパルスによる生体組織の励起と、光吸収による熱弾性膨張によって発生する超音波の検出に基づいている。
OAイメージングは、深部組織における豊富な光学コントラストと高分解能の強力な組み合わせを特徴としている。
臨床環境でのOAの幅広い応用を促進するために、異なるタイプの実験的なセットアップと関連する処理手法で生成される標準化データセットは存在しない。
論文 参考訳(メタデータ) (2022-06-17T08:11:26Z) - Harmonizing Pathological and Normal Pixels for Pseudo-healthy Synthesis [68.5287824124996]
そこで本研究では,新しいタイプの識別器であるセグメンタを提案し,病変の正確な特定と擬似健康画像の視覚的品質の向上を図っている。
医用画像強調に生成画像を適用し,低コントラスト問題に対処するために拡張結果を利用する。
BraTSのT2モダリティに関する総合的な実験により、提案手法は最先端の手法よりも大幅に優れていることが示された。
論文 参考訳(メタデータ) (2022-03-29T08:41:17Z) - Sharp-GAN: Sharpness Loss Regularized GAN for Histopathology Image
Synthesis [65.47507533905188]
コンディショナル・ジェネレーショナル・ジェネレーティブ・逆境ネットワークは、合成病理像を生成するために応用されている。
そこで我々は,現実的な病理像を合成するために,シャープネスロス正則化生成対向ネットワークを提案する。
論文 参考訳(メタデータ) (2021-10-27T18:54:25Z) - CyTran: A Cycle-Consistent Transformer with Multi-Level Consistency for
Non-Contrast to Contrast CT Translation [56.622832383316215]
コントラストCTを非コントラストCTに変換する手法を提案する。
提案手法は、CyTranを略して、サイクル一貫性のある生成逆転変換器に基づいている。
実験の結果、CyTranは競合するすべての手法より優れています。
論文 参考訳(メタデータ) (2021-10-12T23:25:03Z) - Image Translation for Medical Image Generation -- Ischemic Stroke
Lesions [0.0]
注釈付き病理を持つ合成データベースは、必要なトレーニングデータを提供することができる。
画像から画像への変換モデルを訓練し、脳卒中病変を伴わない脳の容積の磁気共鳴像を合成する。
臨床例は10例, 50例に過ぎなかったが, 総合的なデータ拡張は有意な改善をもたらすことが示唆された。
論文 参考訳(メタデータ) (2020-10-05T09:12:28Z) - Pathological Retinal Region Segmentation From OCT Images Using Geometric
Relation Based Augmentation [84.7571086566595]
本稿では,幾何学と形状の内在的関係を共同で符号化することで,従来のGANベースの医用画像合成法よりも優れた手法を提案する。
提案手法は,取得手順の異なる画像を有する公開RETOUCHデータセット上で,最先端のセグメンテーション手法より優れている。
論文 参考訳(メタデータ) (2020-03-31T11:50:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。