論文の概要: EchoCoTr: Estimation of the Left Ventricular Ejection Fraction from
Spatiotemporal Echocardiography
- arxiv url: http://arxiv.org/abs/2209.04242v1
- Date: Fri, 9 Sep 2022 11:01:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-12 12:54:24.681688
- Title: EchoCoTr: Estimation of the Left Ventricular Ejection Fraction from
Spatiotemporal Echocardiography
- Title(参考訳): 時空間心エコー法による左室エジェクション分画の推定
- Authors: Rand Muhtaseb and Mohammad Yaqub
- Abstract要約: 心エコー法などの医用ビデオデータのトレーニングにおいて,通常直面する限界に対処する手法を提案する。
超音波ビデオにおける左室放出率(LVEF)の推定に,視覚変換器とCNNの強度を利用するアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Learning spatiotemporal features is an important task for efficient video
understanding especially in medical images such as echocardiograms.
Convolutional neural networks (CNNs) and more recent vision transformers (ViTs)
are the most commonly used methods with limitations per each. CNNs are good at
capturing local context but fail to learn global information across video
frames. On the other hand, vision transformers can incorporate global details
and long sequences but are computationally expensive and typically require more
data to train. In this paper, we propose a method that addresses the
limitations we typically face when training on medical video data such as
echocardiographic scans. The algorithm we propose (EchoCoTr) utilizes the
strength of vision transformers and CNNs to tackle the problem of estimating
the left ventricular ejection fraction (LVEF) on ultrasound videos. We
demonstrate how the proposed method outperforms state-of-the-art work to-date
on the EchoNet-Dynamic dataset with MAE of 3.95 and $R^2$ of 0.82. These
results show noticeable improvement compared to all published research. In
addition, we show extensive ablations and comparisons with several algorithms,
including ViT and BERT. The code is available at
https://github.com/BioMedIA-MBZUAI/EchoCoTr.
- Abstract(参考訳): 時空間的特徴の学習は、特に心エコー図などの医療画像において、効率的な映像理解のための重要な課題である。
畳み込みニューラルネットワーク(CNN)と、より最近のビジョントランスフォーマー(ViT)は、それぞれに制限がある最も一般的な方法である。
CNNはローカルなコンテキストを捉えるのが得意だが、ビデオフレーム全体にわたってグローバルな情報を学べない。
一方、視覚変換器はグローバルな詳細と長いシーケンスを組み込むことができるが、計算コストが高く、訓練により多くのデータを必要とする。
本稿では,心エコー検査などの医用ビデオデータのトレーニングにおいて,通常直面する限界に対処する手法を提案する。
超音波映像における左室放出率(LVEF)を推定するために,視覚変換器とCNNの強度を利用したEchoCoTrを提案する。
提案手法は,3.95 mae と 0.82 の $r^2$ を持つ echonet-dynamic dataset において,最先端の作業よりも優れることを示す。
これらの結果は、公表されたすべての研究と比較して明らかな改善を示した。
さらに, ViT や BERT などのアルゴリズムとの比較を行った。
コードはhttps://github.com/BioMedIA-MBzuAI/EchoCoTrで公開されている。
関連論文リスト
- Automatic Cardiac Pathology Recognition in Echocardiography Images Using Higher Order Dynamic Mode Decomposition and a Vision Transformer for Small Datasets [2.0286377328378737]
心臓病は、人間の機能不全の主な原因だ。WHOによると、心臓病のために毎年約1800万人が死亡している。
本研究では,新しい深層学習フレームワークに基づく自動心臓病理診断システムを提案する。
論文 参考訳(メタデータ) (2024-04-30T14:16:45Z) - CathFlow: Self-Supervised Segmentation of Catheters in Interventional Ultrasound Using Optical Flow and Transformers [66.15847237150909]
縦型超音波画像におけるカテーテルのセグメンテーションのための自己教師型ディープラーニングアーキテクチャを提案する。
ネットワークアーキテクチャは、Attention in Attentionメカニズムで構築されたセグメンテーショントランスフォーマであるAiAReSeg上に構築されている。
我々は,シリコンオルタファントムから収集した合成データと画像からなる実験データセット上で,我々のモデルを検証した。
論文 参考訳(メタデータ) (2024-03-21T15:13:36Z) - SimLVSeg: Simplifying Left Ventricular Segmentation in 2D+Time Echocardiograms with Self- and Weakly-Supervised Learning [0.8672882547905405]
狭義の心エコービデオから一貫した左室(LV)セグメンテーションを行うビデオベースネットワークであるSimLVSegを開発した。
SimLVSegは、時間的マスキングによる自己教師付き事前トレーニングと、スパースアノテーションからのLVセグメンテーションに適した弱い教師付き学習で構成されている。
我々は、SimLVSegが、最大の2D+時間心エコー画像データセットで93.32%のダイススコアを達成して、最先端のソリューションをいかに優れているかを実証する。
論文 参考訳(メタデータ) (2023-09-30T18:13:41Z) - Data-Efficient Vision Transformers for Multi-Label Disease
Classification on Chest Radiographs [55.78588835407174]
視覚変換器(ViT)は一般的な画像の分類性能が高いにもかかわらず、このタスクには適用されていない。
ViTは、畳み込みではなくパッチベースの自己アテンションに依存しており、CNNとは対照的に、ローカル接続に関する事前の知識は存在しない。
以上の結果から,ViTとCNNのパフォーマンスはViTの利点に匹敵するものの,DeiTsはトレーニング用に適度に大規模なデータセットが利用可能であれば,前者よりも優れることがわかった。
論文 参考訳(メタデータ) (2022-08-17T09:07:45Z) - D'ARTAGNAN: Counterfactual Video Generation [3.4079278794252232]
因果的対応の機械学習フレームワークは、臨床医がカウンターファクトの質問に答えることで、治療の最良のコースを特定するのに役立つ。
我々は、D'ARTAGNANを構築するために、ディープニューラルネットワーク、ツイン因果ネットワーク、および生成的敵法を初めて組み合わせる。
新しい超音波ビデオを生成し, 所定の入力に設定したエジェクション・フラクションのバリエーションを用いて, 元の患者の映像スタイルと解剖を保ちながら, 超音波ビデオを生成する。
論文 参考訳(メタデータ) (2022-06-03T15:53:32Z) - Preservation of High Frequency Content for Deep Learning-Based Medical
Image Classification [74.84221280249876]
大量の胸部ラジオグラフィーの効率的な分析は、医師や放射線技師を助けることができる。
本稿では,視覚情報の効率的な識別と符号化のための離散ウェーブレット変換(DWT)を提案する。
論文 参考訳(メタデータ) (2022-05-08T15:29:54Z) - Voice-assisted Image Labelling for Endoscopic Ultrasound Classification
using Neural Networks [48.732863591145964]
本稿では,臨床医が提示した生音声からのEUS画像にラベルを付けるマルチモーダル畳み込みニューラルネットワークアーキテクチャを提案する。
その結果,5つのラベルを持つデータセットにおいて,画像レベルでの予測精度は76%であった。
論文 参考訳(メタデータ) (2021-10-12T21:22:24Z) - Fully Automated 2D and 3D Convolutional Neural Networks Pipeline for
Video Segmentation and Myocardial Infarction Detection in Echocardiography [7.378083964709321]
畳み込みニューラルネットワーク(CNN)に基づく,革新的なリアルタイムエンドツーエンドフルオートマチックモデルを提案する。
A4C(Apical 4-chamber)ビューからLVチャンバーをセグメント化してデータ前処理を行う2次元CNNと、セグメント化された心エコー図がMIの兆候を示すかどうかを検出するバイナリ分類を行う3次元CNNからなるパイプラインとして実装しています。
論文 参考訳(メタデータ) (2021-03-26T21:03:33Z) - Weakly-supervised Learning For Catheter Segmentation in 3D Frustum
Ultrasound [74.22397862400177]
超音波を用いた新しいカテーテルセグメンテーション法を提案する。
提案手法は,1ボリュームあたり0.25秒の効率で最先端の性能を実現した。
論文 参考訳(メタデータ) (2020-10-19T13:56:22Z) - 3D medical image segmentation with labeled and unlabeled data using
autoencoders at the example of liver segmentation in CT images [58.720142291102135]
本研究では、畳み込みニューラルネットワークによるセグメンテーションを改善するために、オートエンコーダ抽出機能の可能性を検討する。
コンボリューション・オートエンコーダを用いてラベルのないデータから特徴を抽出し,CT画像における3次元肝セグメンテーションの目標タスクを実行するために,マルチスケールの完全畳み込みCNNを用いた。
論文 参考訳(メタデータ) (2020-03-17T20:20:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。