論文の概要: Ultrasound Video Transformers for Cardiac Ejection Fraction Estimation
- arxiv url: http://arxiv.org/abs/2107.00977v1
- Date: Fri, 2 Jul 2021 11:23:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-05 12:50:03.771209
- Title: Ultrasound Video Transformers for Cardiac Ejection Fraction Estimation
- Title(参考訳): 心臓射出分画推定のための超音波ビデオトランスフォーマ
- Authors: Hadrien Reynaud, Athanasios Vlontzos, Benjamin Hou, Arian Beqiri, Paul
Leeson, Bernhard Kainz
- Abstract要約: 本稿では,トークン分類に適応したResidual Auto-Encoder NetworkとBERTモデルを用いた超音波ビデオ解析手法を提案する。
本研究では,エンドシストリクス(ES)とエンドダイアストリクス(ED)のフレーム検出と左室放出率の自動計算に本モデルを適用した。
エンド・ツー・エンドの学習可能なアプローチでは、5.95のMAEと0.15秒で$R2$の0.52で射出率を推定できる。
- 参考スコア(独自算出の注目度): 3.188100483042461
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cardiac ultrasound imaging is used to diagnose various heart diseases. Common
analysis pipelines involve manual processing of the video frames by expert
clinicians. This suffers from intra- and inter-observer variability. We propose
a novel approach to ultrasound video analysis using a transformer architecture
based on a Residual Auto-Encoder Network and a BERT model adapted for token
classification. This enables videos of any length to be processed. We apply our
model to the task of End-Systolic (ES) and End-Diastolic (ED) frame detection
and the automated computation of the left ventricular ejection fraction. We
achieve an average frame distance of 3.36 frames for the ES and 7.17 frames for
the ED on videos of arbitrary length. Our end-to-end learnable approach can
estimate the ejection fraction with a MAE of 5.95 and $R^2$ of 0.52 in 0.15s
per video, showing that segmentation is not the only way to predict ejection
fraction. Code and models are available at https://github.com/HReynaud/UVT.
- Abstract(参考訳): 心臓超音波画像は様々な心臓疾患の診断に用いられる。
一般的な分析パイプラインは、専門医によるビデオフレームのマニュアル処理を含む。
これは、オブザーバ内およびオブザーバ間の可変性に苦しむ。
本稿では,残差オートエンコーダネットワークに基づく変圧器アーキテクチャとトークン分類に適したbertモデルを用いた超音波映像解析手法を提案する。
これにより、任意の長さのビデオが処理できる。
本研究では,エンドシストリクス(ES)とエンドダイアストリクス(ED)のフレーム検出と左室放出率の自動計算に本モデルを適用した。
任意の長さの映像に対して,esの3.36フレームとedの7.17フレームの平均フレーム距離を達成する。
我々のエンドツーエンドの学習可能なアプローチでは、ビデオあたり5.95のMAEと0.15秒で$R^2$の0.52で射出率を推定できる。
コードとモデルはhttps://github.com/hreynaud/uvtで入手できる。
関連論文リスト
- Towards a Benchmark for Colorectal Cancer Segmentation in Endorectal Ultrasound Videos: Dataset and Model Development [59.74920439478643]
本稿では,多様なERUSシナリオをカバーする最初のベンチマークデータセットを収集し,注釈付けする。
ERUS-10Kデータセットは77の動画と10,000の高解像度アノテートフレームで構成されています。
本稿では,ASTR (Adaptive Sparse-context TRansformer) という大腸癌セグメンテーションのベンチマークモデルを提案する。
論文 参考訳(メタデータ) (2024-08-19T15:04:42Z) - CathFlow: Self-Supervised Segmentation of Catheters in Interventional Ultrasound Using Optical Flow and Transformers [66.15847237150909]
縦型超音波画像におけるカテーテルのセグメンテーションのための自己教師型ディープラーニングアーキテクチャを提案する。
ネットワークアーキテクチャは、Attention in Attentionメカニズムで構築されたセグメンテーショントランスフォーマであるAiAReSeg上に構築されている。
我々は,シリコンオルタファントムから収集した合成データと画像からなる実験データセット上で,我々のモデルを検証した。
論文 参考訳(メタデータ) (2024-03-21T15:13:36Z) - Automated interpretation of congenital heart disease from multi-view
echocardiograms [10.238433789459624]
先天性心疾患(CHD)は、中国で最も多い出生障害であり、新生児死亡の原因となっている。
本研究では,多視点心エコー図を実用的エンドツーエンドのフレームワークで自動解析する手法を提案する。
論文 参考訳(メタデータ) (2023-11-30T18:37:21Z) - Hierarchical Vision Transformers for Cardiac Ejection Fraction
Estimation [0.0]
本稿では,階層型視覚変換器をベースとした深層学習手法を提案する。
提案手法は,まず左腹腔分画を必要とせずに吐出率を推定できるので,他の方法よりも効率がよい。
論文 参考訳(メタデータ) (2023-03-31T23:42:17Z) - Feature-Conditioned Cascaded Video Diffusion Models for Precise
Echocardiogram Synthesis [5.102090025931326]
我々は、ビデオモデリングのための解明された拡散モデルを拡張し、単一の画像から可視なビデオシーケンスを生成する。
我々の画像からシーケンスへのアプローチは、最近提案されたシーケンスからシーケンス生成手法よりも38ポイント高い93%のR2$スコアを達成する。
論文 参考訳(メタデータ) (2023-03-22T15:26:22Z) - EchoCoTr: Estimation of the Left Ventricular Ejection Fraction from
Spatiotemporal Echocardiography [0.0]
心エコー法などの医用ビデオデータのトレーニングにおいて,通常直面する限界に対処する手法を提案する。
超音波ビデオにおける左室放出率(LVEF)の推定に,視覚変換器とCNNの強度を利用するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-09-09T11:01:59Z) - Focused Decoding Enables 3D Anatomical Detection by Transformers [64.36530874341666]
集束デコーダと呼ばれる3次元解剖学的構造検出のための新しい検出変換器を提案する。
Focused Decoderは、解剖学的領域のアトラスからの情報を活用して、クエリアンカーを同時にデプロイし、クロスアテンションの視野を制限する。
提案手法を利用可能な2つのCTデータセットに対して評価し、フォーカスドデコーダが強力な検出結果を提供するだけでなく、大量の注釈付きデータの必要性を軽減し、注意重みによる結果の例外的で直感的な説明性を示すことを示した。
論文 参考訳(メタデータ) (2022-07-21T22:17:21Z) - D'ARTAGNAN: Counterfactual Video Generation [3.4079278794252232]
因果的対応の機械学習フレームワークは、臨床医がカウンターファクトの質問に答えることで、治療の最良のコースを特定するのに役立つ。
我々は、D'ARTAGNANを構築するために、ディープニューラルネットワーク、ツイン因果ネットワーク、および生成的敵法を初めて組み合わせる。
新しい超音波ビデオを生成し, 所定の入力に設定したエジェクション・フラクションのバリエーションを用いて, 元の患者の映像スタイルと解剖を保ちながら, 超音波ビデオを生成する。
論文 参考訳(メタデータ) (2022-06-03T15:53:32Z) - Preservation of High Frequency Content for Deep Learning-Based Medical
Image Classification [74.84221280249876]
大量の胸部ラジオグラフィーの効率的な分析は、医師や放射線技師を助けることができる。
本稿では,視覚情報の効率的な識別と符号化のための離散ウェーブレット変換(DWT)を提案する。
論文 参考訳(メタデータ) (2022-05-08T15:29:54Z) - Learning Trajectory-Aware Transformer for Video Super-Resolution [50.49396123016185]
ビデオ超解像は、高解像度(HR)フレームを低解像度(LR)フレームから復元することを目的としている。
既存のアプローチは通常、隣接する限られたフレームからビデオフレームを並べて集約する。
ビデオ超解像用トランスフォーマー(TTVSR)を提案する。
論文 参考訳(メタデータ) (2022-04-08T03:37:39Z) - Towards Unsupervised Learning for Instrument Segmentation in Robotic
Surgery with Cycle-Consistent Adversarial Networks [54.00217496410142]
本稿では、入力された内視鏡画像と対応するアノテーションとのマッピングを学習することを目的として、未ペア画像から画像への変換を提案する。
当社のアプローチでは,高価なアノテーションを取得することなく,イメージセグメンテーションモデルをトレーニングすることが可能です。
提案手法をEndovis 2017チャレンジデータセットで検証し,教師付きセグメンテーション手法と競合することを示す。
論文 参考訳(メタデータ) (2020-07-09T01:39:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。