論文の概要: Generative deep learning for foundational video translation in ultrasound
- arxiv url: http://arxiv.org/abs/2511.03255v1
- Date: Wed, 05 Nov 2025 07:32:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-06 18:19:32.374527
- Title: Generative deep learning for foundational video translation in ultrasound
- Title(参考訳): 超音波における基礎的ビデオ翻訳のための生成的深層学習
- Authors: Nikolina Tomic Roshni Bhatnagar, Sarthak Jain, Connor Lau, Tien-Yu Liu, Laura Gambini, Rima Arnaout,
- Abstract要約: 54,975本のビデオで訓練し,8,368本で試験した,超音波CFD-greyscaleビデオ翻訳のための生成法を提案する。
この手法は、ピクセル単位で、対角的に、知覚的損失を生かし、解剖学的構造を再構築するネットワークと、現実的な超音波イメージングを実現するためのデノナイズのためのネットワークを2つ利用した。
- 参考スコア(独自算出の注目度): 5.598184950574122
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Deep learning (DL) has the potential to revolutionize image acquisition and interpretation across medicine, however, attention to data imbalance and missingness is required. Ultrasound data presents a particular challenge because in addition to different views and structures, it includes several sub-modalities-such as greyscale and color flow doppler (CFD)-that are often imbalanced in clinical studies. Image translation can help balance datasets but is challenging for ultrasound sub-modalities to date. Here, we present a generative method for ultrasound CFD-greyscale video translation, trained on 54,975 videos and tested on 8,368. The method developed leveraged pixel-wise, adversarial, and perceptual loses and utilized two networks: one for reconstructing anatomic structures and one for denoising to achieve realistic ultrasound imaging. Average pairwise SSIM between synthetic videos and ground truth was 0.91+/-0.04. Synthetic videos performed indistinguishably from real ones in DL classification and segmentation tasks and when evaluated by blinded clinical experts: F1 score was 0.9 for real and 0.89 for synthetic videos; Dice score between real and synthetic segmentation was 0.97. Overall clinician accuracy in distinguishing real vs synthetic videos was 54+/-6% (42-61%), indicating realistic synthetic videos. Although trained only on heart videos, the model worked well on ultrasound spanning several clinical domains (average SSIM 0.91+/-0.05), demonstrating foundational abilities. Together, these data expand the utility of retrospectively collected imaging and augment the dataset design toolbox for medical imaging.
- Abstract(参考訳): 深層学習(DL)は、医薬全体にわたる画像取得と解釈に革命をもたらす可能性があるが、データの不均衡や欠如への注意が必要である。
超音波データは、様々なビューや構造に加えて、グレースケールやカラーフロードップラー(CFD)のようないくつかのサブモダリティを含むため、臨床研究においてしばしば不均衡である。
画像翻訳はデータセットのバランスを取るのに役立ちますが、超音波のサブモダリティは今のところ難しいです。
そこで本研究では,54,975本のビデオで訓練され,8,368本で試験された超音波CFD-greyscaleビデオ翻訳の生成法を提案する。
この手法は、ピクセル単位で、対角的に、知覚的損失を生かし、解剖学的構造を再構築するネットワークと、現実的な超音波イメージングを実現するためのデノナイズのためのネットワークを2つ利用した。
合成ビデオと地上真実の平均SSIMは0.91+/-0.04である。
合成ビデオはDL分類とセグメンテーションの作業において実際のものと区別がつかず, 盲目の臨床専門家による評価ではF1スコアは実で0.9, 合成ビデオでは0.89, 実と合成セグメンテーションの間のDiceスコアは0.97であった。
実写ビデオと合成ビデオの区別における総合的臨床精度は54+/-6% (42-61%) であり, リアルな合成ビデオであることが示唆された。
心臓ビデオでしか訓練されなかったが、このモデルはいくつかの臨床領域(平均SSIM 0.91+/-0.05)にわたる超音波でうまく機能し、基礎的能力を示した。
これらのデータとともに、振り返りで収集された画像の有用性を拡張し、医療画像のためのデータセットデザインツールボックスを拡張する。
関連論文リスト
- Ultrasound Image-to-Video Synthesis via Latent Dynamic Diffusion Models [17.949823366019285]
そこで本研究では,超音波画像から可視性超音波映像を合成する手法を提案する。
BUSVベンチマークにおいて,強い定量的結果を示し,映像を視覚的にアピールする。
画像から映像へのアプローチは,超音波ビデオ解析の進歩に有効なデータ拡張ソリューションを提供する。
論文 参考訳(メタデータ) (2025-03-19T07:58:43Z) - Merging synthetic and real embryo data for advanced AI predictions [69.07284335967019]
我々は、作成した2つのデータセットを用いて、2つの生成モデルをトレーニングし、既存の1つのデータセットを使用して、様々な細胞レベルで合成胚画像を生成する。
これらは実画像と組み合わせて、胚細胞ステージ予測のための分類モデルを訓練した。
その結果,実データと合成画像を組み合わせることで分類性能が向上し,実データのみをトレーニングした場合の94.5%に比べて97%の精度が得られた。
論文 参考訳(メタデータ) (2024-12-02T08:24:49Z) - CathFlow: Self-Supervised Segmentation of Catheters in Interventional Ultrasound Using Optical Flow and Transformers [66.15847237150909]
縦型超音波画像におけるカテーテルのセグメンテーションのための自己教師型ディープラーニングアーキテクチャを提案する。
ネットワークアーキテクチャは、Attention in Attentionメカニズムで構築されたセグメンテーショントランスフォーマであるAiAReSeg上に構築されている。
我々は,シリコンオルタファントムから収集した合成データと画像からなる実験データセット上で,我々のモデルを検証した。
論文 参考訳(メタデータ) (2024-03-21T15:13:36Z) - Echo from noise: synthetic ultrasound image generation using diffusion
models for real image segmentation [0.3999851878220878]
超音波画像解析タスクの深層学習モデルの訓練において,合成画像が実データに有効な代用となることを示す。
左心室と左心房のセグメンテーションを行うため, 人工心エコー法を作製し, ニューラルネットワークを訓練した。
論文 参考訳(メタデータ) (2023-05-09T13:15:52Z) - Feature-Conditioned Cascaded Video Diffusion Models for Precise
Echocardiogram Synthesis [5.102090025931326]
我々は、ビデオモデリングのための解明された拡散モデルを拡張し、単一の画像から可視なビデオシーケンスを生成する。
我々の画像からシーケンスへのアプローチは、最近提案されたシーケンスからシーケンス生成手法よりも38ポイント高い93%のR2$スコアを達成する。
論文 参考訳(メタデータ) (2023-03-22T15:26:22Z) - Self-supervised contrastive learning of echocardiogram videos enables
label-efficient cardiac disease diagnosis [48.64462717254158]
心エコービデオを用いた自己教師型コントラスト学習手法であるエコーCLRを開発した。
左室肥大症 (LVH) と大動脈狭窄症 (AS) の分類成績は,EchoCLR の訓練により有意に改善した。
EchoCLRは、医療ビデオの表現を学習する能力に特有であり、SSLがラベル付きデータセットからラベル効率の高い疾患分類を可能にすることを実証している。
論文 参考訳(メタデータ) (2022-07-23T19:17:26Z) - Weakly-supervised High-fidelity Ultrasound Video Synthesis with Feature
Decoupling [13.161739586288704]
臨床実践において、分析と診断は、動的解剖情報を得るために単一の画像ではなくアメリカのシーケンスに依存することが多い。
患者からの適切なビデオで練習することは、臨床的には実践的ではないため、初心者には学ぶことが難しい。
我々は,高忠実度US動画を合成するための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2022-07-01T14:53:22Z) - Vision Transformers for femur fracture classification [59.99241204074268]
Vision Transformer (ViT) はテスト画像の83%を正確に予測することができた。
史上最大かつ最もリッチなデータセットを持つサブフラクチャーで良い結果が得られた。
論文 参考訳(メタデータ) (2021-08-07T10:12:42Z) - Image Translation for Medical Image Generation -- Ischemic Stroke
Lesions [0.0]
注釈付き病理を持つ合成データベースは、必要なトレーニングデータを提供することができる。
画像から画像への変換モデルを訓練し、脳卒中病変を伴わない脳の容積の磁気共鳴像を合成する。
臨床例は10例, 50例に過ぎなかったが, 総合的なデータ拡張は有意な改善をもたらすことが示唆された。
論文 参考訳(メタデータ) (2020-10-05T09:12:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。