論文の概要: Feature-Conditioned Cascaded Video Diffusion Models for Precise
Echocardiogram Synthesis
- arxiv url: http://arxiv.org/abs/2303.12644v1
- Date: Wed, 22 Mar 2023 15:26:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-23 13:47:42.779942
- Title: Feature-Conditioned Cascaded Video Diffusion Models for Precise
Echocardiogram Synthesis
- Title(参考訳): 心エコー図合成のための特徴条件付きカスケードビデオ拡散モデル
- Authors: Hadrien Reynaud, Mengyun Qiao, Mischa Dombrowski, Thomas Day, Reza
Razavi, Alberto Gomez, Paul Leeson, Bernhard Kainz
- Abstract要約: 我々は、ビデオモデリングのための解明された拡散モデルを拡張し、単一の画像から可視なビデオシーケンスを生成する。
我々の画像からシーケンスへのアプローチは、最近提案されたシーケンスからシーケンス生成手法よりも38ポイント高い93%のR2スコアを達成する。
- 参考スコア(独自算出の注目度): 2.248423960136122
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Image synthesis is expected to provide value for the translation of machine
learning methods into clinical practice. Fundamental problems like model
robustness, domain transfer, causal modelling, and operator training become
approachable through synthetic data. Especially, heavily operator-dependant
modalities like Ultrasound imaging require robust frameworks for image and
video generation. So far, video generation has only been possible by providing
input data that is as rich as the output data, e.g., image sequence plus
conditioning in, video out. However, clinical documentation is usually scarce
and only single images are reported and stored, thus retrospective
patient-specific analysis or the generation of rich training data becomes
impossible with current approaches. In this paper, we extend elucidated
diffusion models for video modelling to generate plausible video sequences from
single images and arbitrary conditioning with clinical parameters. We explore
this idea within the context of echocardiograms by looking into the variation
of the Left Ventricle Ejection Fraction, the most essential clinical metric
gained from these examinations. We use the publicly available EchoNet-Dynamic
dataset for all our experiments. Our image to sequence approach achieves an R2
score of 93%, which is 38 points higher than recently proposed sequence to
sequence generation methods. A public demo is available here: bit.ly/3HTskPF.
Code and models will be available at:
https://github.com/HReynaud/EchoDiffusion.
- Abstract(参考訳): 画像合成は、機械学習手法を臨床に翻訳する価値をもたらすことが期待されている。
モデルロバスト性、ドメイン転送、因果モデリング、オペレータトレーニングといった基本的な問題は、合成データを通じてアプローチ可能である。
特に、Ultrasound Imagingのような演算子依存のモダリティは、画像およびビデオ生成のための堅牢なフレームワークを必要とする。
これまでのところ、ビデオ生成は出力データと同等のリッチな入力データ、例えば画像シーケンスと条件付きイン、ビデオ出力を提供することでのみ可能だった。
しかし, 臨床資料は乏しく, 単一の画像のみを報告, 保存しているため, 患者固有の分析やリッチトレーニングデータの生成は現在のアプローチでは不可能である。
本稿では,ビデオモデリングのための推定拡散モデルを拡張し,単一の画像から可視な映像シーケンスを生成し,臨床パラメータを任意に設定する。
心エコー図の文脈において、左室射出率の変動について検討し、これらの検査から得られた最も本質的な臨床指標について検討する。
すべての実験で利用可能なEchoNet-Dynamicデータセットを使用します。
我々の画像からシーケンスへのアプローチは、最近提案されたシーケンスからシーケンス生成手法よりも38ポイント高いR2スコアの93%を達成する。
公開デモはbit.ly/3htskpfで公開されている。
コードとモデルはhttps://github.com/hreynaud/echodiffusionで入手できる。
関連論文リスト
- Pre-training for Action Recognition with Automatically Generated Fractal Datasets [23.686476742398973]
本稿では,短い合成ビデオクリップの大規模データセットを自動生成する手法を提案する。
生成されたビデオクリップは、複雑なマルチスケール構造を生成するフラクタルの自然能力に起因した顕著な多様性によって特徴づけられる。
通常のKineeticsの事前トレーニングと比較すると、報告結果が近くなり、下流のデータセットよりも優れています。
論文 参考訳(メタデータ) (2024-11-26T16:51:11Z) - SurgicaL-CD: Generating Surgical Images via Unpaired Image Translation with Latent Consistency Diffusion Models [1.6189876649941652]
現実的な手術画像を生成するために, 連続拡散法であるemphSurgicaL-CDを導入する。
以上の結果から,本手法はGANや拡散に基づく手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2024-08-19T09:19:25Z) - EchoNet-Synthetic: Privacy-preserving Video Generation for Safe Medical Data Sharing [5.900946696794718]
本稿では,高忠実度,長大かつアクセス可能な完全データサンプルをほぼリアルタイムに生成するモデルを提案する。
本研究では,拡散モデルに基づく生成手法を開発し,医用ビデオデータセットの匿名化のためのプロトコルを提案する。
完全合成でプライバシに適合したエコー心電図データセットであるEchoNet-Syntheticについて述べる。
論文 参考訳(メタデータ) (2024-06-02T17:18:06Z) - CathFlow: Self-Supervised Segmentation of Catheters in Interventional Ultrasound Using Optical Flow and Transformers [66.15847237150909]
縦型超音波画像におけるカテーテルのセグメンテーションのための自己教師型ディープラーニングアーキテクチャを提案する。
ネットワークアーキテクチャは、Attention in Attentionメカニズムで構築されたセグメンテーショントランスフォーマであるAiAReSeg上に構築されている。
我々は,シリコンオルタファントムから収集した合成データと画像からなる実験データセット上で,我々のモデルを検証した。
論文 参考訳(メタデータ) (2024-03-21T15:13:36Z) - D'ARTAGNAN: Counterfactual Video Generation [3.4079278794252232]
因果的対応の機械学習フレームワークは、臨床医がカウンターファクトの質問に答えることで、治療の最良のコースを特定するのに役立つ。
我々は、D'ARTAGNANを構築するために、ディープニューラルネットワーク、ツイン因果ネットワーク、および生成的敵法を初めて組み合わせる。
新しい超音波ビデオを生成し, 所定の入力に設定したエジェクション・フラクションのバリエーションを用いて, 元の患者の映像スタイルと解剖を保ちながら, 超音波ビデオを生成する。
論文 参考訳(メタデータ) (2022-06-03T15:53:32Z) - Ultrasound Signal Processing: From Models to Deep Learning [64.56774869055826]
医用超音波画像は、信頼性と解釈可能な画像再構成を提供するために、高品質な信号処理に大きく依存している。
データ駆動方式で最適化されたディープラーニングベースの手法が人気を集めている。
比較的新しいパラダイムは、データ駆動型ディープラーニングの活用とドメイン知識の活用という2つのパワーを組み合わせたものだ。
論文 参考訳(メタデータ) (2022-04-09T13:04:36Z) - ViViT: A Video Vision Transformer [75.74690759089529]
ビデオ分類にpure-transformerベースのモデルを提案する。
本モデルでは,入力ビデオから時間トークンを抽出し,一連のトランスフォーマー層で符号化する。
トレーニング中にモデルを効果的に正規化し、トレーニング済みの画像モデルを利用して比較的小さなデータセットでトレーニングできることを示します。
論文 参考訳(メタデータ) (2021-03-29T15:27:17Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z) - Image Translation for Medical Image Generation -- Ischemic Stroke
Lesions [0.0]
注釈付き病理を持つ合成データベースは、必要なトレーニングデータを提供することができる。
画像から画像への変換モデルを訓練し、脳卒中病変を伴わない脳の容積の磁気共鳴像を合成する。
臨床例は10例, 50例に過ぎなかったが, 総合的なデータ拡張は有意な改善をもたらすことが示唆された。
論文 参考訳(メタデータ) (2020-10-05T09:12:28Z) - Towards Unsupervised Learning for Instrument Segmentation in Robotic
Surgery with Cycle-Consistent Adversarial Networks [54.00217496410142]
本稿では、入力された内視鏡画像と対応するアノテーションとのマッピングを学習することを目的として、未ペア画像から画像への変換を提案する。
当社のアプローチでは,高価なアノテーションを取得することなく,イメージセグメンテーションモデルをトレーニングすることが可能です。
提案手法をEndovis 2017チャレンジデータセットで検証し,教師付きセグメンテーション手法と競合することを示す。
論文 参考訳(メタデータ) (2020-07-09T01:39:39Z) - Modeling Shared Responses in Neuroimaging Studies through MultiView ICA [94.31804763196116]
被験者の大規模なコホートを含むグループ研究は、脳機能組織に関する一般的な結論を引き出す上で重要である。
グループ研究のための新しい多視点独立成分分析モデルを提案し、各被験者のデータを共有独立音源と雑音の線形結合としてモデル化する。
まず、fMRIデータを用いて、被験者間の共通音源の同定における感度の向上を示す。
論文 参考訳(メタデータ) (2020-06-11T17:29:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。