論文の概要: Unsupervised multi-latent space reinforcement learning framework for
video summarization in ultrasound imaging
- arxiv url: http://arxiv.org/abs/2109.01309v1
- Date: Fri, 3 Sep 2021 04:50:35 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-06 13:52:53.938048
- Title: Unsupervised multi-latent space reinforcement learning framework for
video summarization in ultrasound imaging
- Title(参考訳): 超音波画像における映像要約のための教師なし多層空間強化学習フレームワーク
- Authors: Roshan P Mathews, Mahesh Raveendranatha Panicker, Abhilash R
Hareendranathan, Yale Tung Chen, Jacob L Jaremko, Brian Buchanan, Kiran
Vishnu Narayan, Kesavadas C, Greeta Mathews
- Abstract要約: 新型コロナウイルス(COVID-19)のパンデミックは、超音波スキャンのトリアージを高速化するツールの必要性を強調している。
提案手法は,この方向への一歩である。
そこで我々は,新しい報酬を伴う教師なし強化学習フレームワークを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The COVID-19 pandemic has highlighted the need for a tool to speed up triage
in ultrasound scans and provide clinicians with fast access to relevant
information. The proposed video-summarization technique is a step in this
direction that provides clinicians access to relevant key-frames from a given
ultrasound scan (such as lung ultrasound) while reducing resource, storage and
bandwidth requirements. We propose a new unsupervised reinforcement learning
(RL) framework with novel rewards that facilitates unsupervised learning
avoiding tedious and impractical manual labelling for summarizing ultrasound
videos to enhance its utility as a triage tool in the emergency department (ED)
and for use in telemedicine. Using an attention ensemble of encoders, the high
dimensional image is projected into a low dimensional latent space in terms of:
a) reduced distance with a normal or abnormal class (classifier encoder), b)
following a topology of landmarks (segmentation encoder), and c) the distance
or topology agnostic latent representation (convolutional autoencoders). The
decoder is implemented using a bi-directional long-short term memory (Bi-LSTM)
which utilizes the latent space representation from the encoder. Our new
paradigm for video summarization is capable of delivering classification labels
and segmentation of key landmarks for each of the summarized keyframes.
Validation is performed on lung ultrasound (LUS) dataset, that typically
represent potential use cases in telemedicine and ED triage acquired from
different medical centers across geographies (India, Spain and Canada).
- Abstract(参考訳): 新型コロナウイルス(COVID-19)のパンデミックは、超音波スキャンのトリアージをスピードアップし、臨床医に関連情報への迅速なアクセスを提供するツールの必要性を強調している。
提案するビデオ要約技術はこの方向への一歩であり、臨床医が特定の超音波スキャン(肺超音波など)から関連するキーフレームにアクセスし、リソース、ストレージ、帯域幅の要求を削減できる。
本稿では, 緊急部(ED)におけるトリアージツールとしての有用性を高め, 遠隔医療に利用するために, 超音波映像を要約するための, 退屈で非現実的な手動ラベリングを回避し, 教師なしの学習を容易にする, 新たな非教師なし強化学習(RL)フレームワークを提案する。
エンコーダの注意アンサンブルを用いて、高次元画像は、a)正規または異常クラス(分類器エンコーダ)の少ない距離、b)ランドマークのトポロジー(セグメンテーションエンコーダ)に続く、c)距離またはトポロジーに依存しない潜在表現(畳み込みオートエンコーダ)によって、低次元の潜在空間に投影される。
デコーダは、エンコーダから遅延空間表現を利用する双方向長短メモリ(Bi-LSTM)を用いて実装される。
ビデオ要約の新しいパラダイムは、要約された各キーフレームに対して、分類ラベルとキーランドマークのセグメンテーションを提供することができる。
肺超音波(LUS)データセット上でバリデーションが行われ、通常は遠隔医療やEDトリアージにおける潜在的なユースケースを、地理的に異なる医療センター(インド、スペイン、カナダ)で取得する。
関連論文リスト
- CathFlow: Self-Supervised Segmentation of Catheters in Interventional Ultrasound Using Optical Flow and Transformers [66.15847237150909]
縦型超音波画像におけるカテーテルのセグメンテーションのための自己教師型ディープラーニングアーキテクチャを提案する。
ネットワークアーキテクチャは、Attention in Attentionメカニズムで構築されたセグメンテーショントランスフォーマであるAiAReSeg上に構築されている。
我々は,シリコンオルタファントムから収集した合成データと画像からなる実験データセット上で,我々のモデルを検証した。
論文 参考訳(メタデータ) (2024-03-21T15:13:36Z) - AiAReSeg: Catheter Detection and Segmentation in Interventional
Ultrasound using Transformers [75.20925220246689]
血管内手術は、電離放射線を用いてカテーテルと血管を可視化するFluoroscopyの黄金標準を用いて行われる。
本研究では、最先端機械学習トランスフォーマアーキテクチャを応用して、軸干渉超音波画像シーケンス中のカテーテルを検出し、セグメント化する手法を提案する。
論文 参考訳(メタデータ) (2023-09-25T19:34:12Z) - EDMAE: An Efficient Decoupled Masked Autoencoder for Standard View
Identification in Pediatric Echocardiography [16.215207742732893]
The Efficient Decoupled Masked Autoencoder (EDMAE)は、小児心エコー図における標準視像を認識するための新しい自己教師型手法である。
EDMAEは、MAEエンコーダのViT構造の代わりに純粋な畳み込み演算を使用する。
提案手法は,27の標準心エコー図で高い分類精度を実現する。
論文 参考訳(メタデータ) (2023-02-27T15:17:01Z) - Focused Decoding Enables 3D Anatomical Detection by Transformers [64.36530874341666]
集束デコーダと呼ばれる3次元解剖学的構造検出のための新しい検出変換器を提案する。
Focused Decoderは、解剖学的領域のアトラスからの情報を活用して、クエリアンカーを同時にデプロイし、クロスアテンションの視野を制限する。
提案手法を利用可能な2つのCTデータセットに対して評価し、フォーカスドデコーダが強力な検出結果を提供するだけでなく、大量の注釈付きデータの必要性を軽減し、注意重みによる結果の例外的で直感的な説明性を示すことを示した。
論文 参考訳(メタデータ) (2022-07-21T22:17:21Z) - Temporally Constrained Neural Networks (TCNN): A framework for
semi-supervised video semantic segmentation [5.0754434714665715]
本稿では,手術ビデオのセマンティックセグメンテーションに使用される半教師付きフレームワークTCNNを紹介する。
本研究では,オートエンコーダネットワークを用いて,空間的および時間的監視信号の両方を効率的に提供できることを示す。
予測マスクの低次元表現を有効活用して,スパースラベル付き両方のデータセットに一貫した改善を実現することを実証した。
論文 参考訳(メタデータ) (2021-12-27T18:06:12Z) - Voice-assisted Image Labelling for Endoscopic Ultrasound Classification
using Neural Networks [48.732863591145964]
本稿では,臨床医が提示した生音声からのEUS画像にラベルを付けるマルチモーダル畳み込みニューラルネットワークアーキテクチャを提案する。
その結果,5つのラベルを持つデータセットにおいて,画像レベルでの予測精度は76%であった。
論文 参考訳(メタデータ) (2021-10-12T21:22:24Z) - Deep Learning for Ultrasound Beamforming [120.12255978513912]
受信した超音波エコーを空間画像領域にマッピングするビームフォーミングは、超音波画像形成チェーンの心臓に位置する。
現代の超音波イメージングは、強力なデジタル受信チャネル処理の革新に大きく依存している。
ディープラーニング手法は、デジタルビームフォーミングパイプラインにおいて魅力的な役割を果たす。
論文 参考訳(メタデータ) (2021-09-23T15:15:21Z) - Atrous Residual Interconnected Encoder to Attention Decoder Framework
for Vertebrae Segmentation via 3D Volumetric CT Images [1.8146155083014204]
本稿では,3次元容積CT画像を用いた新しい椎骨分割法を提案する。
提案モデルは,ミニバッチトレーニング性能の最適化にレイヤ正規化を用いた,エンコーダからデコーダへの構造に基づく。
実験の結果,本モデルは他の医学的意味セグメンテーション法と比較して競争力が得られた。
論文 参考訳(メタデータ) (2021-04-08T12:09:16Z) - Deep Q-Network-Driven Catheter Segmentation in 3D US by Hybrid
Constrained Semi-Supervised Learning and Dual-UNet [74.22397862400177]
本稿では,教師付き学習手法よりも少ないアノテーションを要求できる新しいカテーテルセグメンテーション手法を提案する。
提案手法では,Voxelレベルのアノテーションを避けるために,深層Q学習を事前局所化ステップとみなす。
検出されたカテーテルでは、パッチベースのDual-UNetを使用してカテーテルを3Dボリュームデータに分割する。
論文 参考訳(メタデータ) (2020-06-25T21:10:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。