論文の概要: B-line Detection in Lung Ultrasound Videos: Cartesian vs Polar
Representation
- arxiv url: http://arxiv.org/abs/2107.12291v1
- Date: Mon, 26 Jul 2021 15:59:56 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-27 18:33:35.460690
- Title: B-line Detection in Lung Ultrasound Videos: Cartesian vs Polar
Representation
- Title(参考訳): 肺超音波映像におけるb線検出:デカルトと極性表現
- Authors: Hamideh Kerdegari, Phung Tran Huy Nhat, Angela McBride, Luigi Pisani,
Reza Razavi, Louise Thwaites, Sophie Yacoub, and Alberto Gomez
- Abstract要約: 肺の異常を評価する集中治療ユニット(ICU)では,肺超音波(LUS)画像が普及している。
B線アーチファクトはLUS画像に現れてすぐに消え、手動による検出は非常に困難である。
本稿では,LUSビデオ中のB線を自動的に検出するConvolutional+LSTMモデルを提案する。
- 参考スコア(独自算出の注目度): 0.6775616141339018
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Lung ultrasound (LUS) imaging is becoming popular in the intensive care units
(ICU) for assessing lung abnormalities such as the appearance of B-line
artefacts as a result of severe dengue. These artefacts appear in the LUS
images and disappear quickly, making their manual detection very challenging.
They also extend radially following the propagation of the sound waves. As a
result, we hypothesize that a polar representation may be more adequate for
automatic image analysis of these images. This paper presents an
attention-based Convolutional+LSTM model to automatically detect B-lines in LUS
videos, comparing performance when image data is taken in Cartesian and polar
representations. Results indicate that the proposed framework with polar
representation achieves competitive performance compared to the Cartesian
representation for B-line classification and that attention mechanism can
provide better localization.
- Abstract(参考訳): 重度デングの結果として,B線アーチファクトの出現などの肺異常を評価できる集中治療装置(ICU)では,肺超音波画像(LUS)が普及している。
これらの人工物はLUS画像に現れてすぐに消え、手動による検出は非常に困難である。
また、音波の伝播に伴って放射状に伸びる。
その結果,これらの画像の自動画像解析に極性表現の方が適切である可能性が示唆された。
本稿では,LUSビデオ中のB線を自動的に検出する,注目に基づく畳み込み+LSTMモデルを提案する。
提案した極性表現フレームワークは,B線分類におけるカルテシアン表現と比較して競争性能が向上し,アテンション機構がより優れたローカライゼーションを実現することを示す。
関連論文リスト
- PHOCUS: Physics-Based Deconvolution for Ultrasound Resolution Enhancement [36.20701982473809]
超音波イメージングシステムのインパルス機能はポイントスプレッド機能(PSF)と呼ばれ、画像形成過程における反射体の空間分布と結びついている。
我々は、より一般的なBモード画像を直接扱う、モデル付きPSFを用いた物理ベースのデコンボリューションプロセスを導入する。
Inlicit Neural Representations (INR) を利用することで、空間位置からそれぞれのエコー原性値への連続的なマッピングを学習し、離散化された画像空間を効果的に補償する。
論文 参考訳(メタデータ) (2024-08-07T09:52:30Z) - CathFlow: Self-Supervised Segmentation of Catheters in Interventional Ultrasound Using Optical Flow and Transformers [66.15847237150909]
縦型超音波画像におけるカテーテルのセグメンテーションのための自己教師型ディープラーニングアーキテクチャを提案する。
ネットワークアーキテクチャは、Attention in Attentionメカニズムで構築されたセグメンテーショントランスフォーマであるAiAReSeg上に構築されている。
我々は,シリコンオルタファントムから収集した合成データと画像からなる実験データセット上で,我々のモデルを検証した。
論文 参考訳(メタデータ) (2024-03-21T15:13:36Z) - AiAReSeg: Catheter Detection and Segmentation in Interventional
Ultrasound using Transformers [75.20925220246689]
血管内手術は、電離放射線を用いてカテーテルと血管を可視化するFluoroscopyの黄金標準を用いて行われる。
本研究では、最先端機械学習トランスフォーマアーキテクチャを応用して、軸干渉超音波画像シーケンス中のカテーテルを検出し、セグメント化する手法を提案する。
論文 参考訳(メタデータ) (2023-09-25T19:34:12Z) - LOTUS: Learning to Optimize Task-based US representations [39.81131738128329]
超音波画像における臓器の解剖学的セグメンテーションは多くの臨床応用に不可欠である。
既存のディープニューラルネットワークは、臨床的に許容できるパフォーマンスを達成するために、トレーニングのために大量のラベル付きデータを必要とする。
本稿では,タスクベース超音速画像表現を最適化する学習手法を提案する。
論文 参考訳(メタデータ) (2023-07-29T16:29:39Z) - DopUS-Net: Quality-Aware Robotic Ultrasound Imaging based on Doppler
Signal [48.97719097435527]
DopUS-Netはドップラー画像とBモード画像を組み合わせることで、小血管のセグメンテーション精度と堅牢性を高める。
動脈再同定モジュールは、リアルタイムセグメンテーション結果を質的に評価し、拡張ドップラー画像に対するプローブポーズを自動的に最適化する。
論文 参考訳(メタデータ) (2023-05-15T18:19:29Z) - Data-Efficient Vision Transformers for Multi-Label Disease
Classification on Chest Radiographs [55.78588835407174]
視覚変換器(ViT)は一般的な画像の分類性能が高いにもかかわらず、このタスクには適用されていない。
ViTは、畳み込みではなくパッチベースの自己アテンションに依存しており、CNNとは対照的に、ローカル接続に関する事前の知識は存在しない。
以上の結果から,ViTとCNNのパフォーマンスはViTの利点に匹敵するものの,DeiTsはトレーニング用に適度に大規模なデータセットが利用可能であれば,前者よりも優れることがわかった。
論文 参考訳(メタデータ) (2022-08-17T09:07:45Z) - Blood vessel segmentation in en-face OCTA images: a frequency based
method [3.6055028453181013]
本稿では,画像の周波数表現に基づく血管識別手法を提案する。
このアルゴリズムは、Cirrus HD-OCTデバイスによって取得された10ドルの眼から得られるOCTA画像データセットに基づいて評価される。
論文 参考訳(メタデータ) (2021-09-13T16:42:58Z) - Contrastive Attention for Automatic Chest X-ray Report Generation [124.60087367316531]
ほとんどの場合、正常領域が胸部X線像全体を支配し、これらの正常領域の対応する記述が最終報告を支配している。
本稿では,現在の入力画像と通常の画像を比較してコントラスト情報を抽出するContrastive Attention(CA)モデルを提案する。
2つの公開データセットで最先端の結果を得る。
論文 参考訳(メタデータ) (2021-06-13T11:20:31Z) - Prediction of low-keV monochromatic images from polyenergetic CT scans
for improved automatic detection of pulmonary embolism [21.47219330040151]
我々は、従来の単エネルギーCT取得からモノE画像の生成をエミュレートできる畳み込みニューラルネットワークを訓練している。
我々は,これらの手法をマルチタスク最適化手法を用いて拡張し,改良された分類と生成結果を実現する。
論文 参考訳(メタデータ) (2021-02-02T11:42:31Z) - Automatic Detection of B-lines in Lung Ultrasound Videos From Severe
Dengue Patients [0.6775616141339018]
本稿では,肺超音波(LUS)ビデオ中のB線を自動的に検出し,局所化する手法を提案する。
畳み込みニューラルネットワーク(CNN)と長期記憶(LSTM)ネットワークと時間的注意機構を組み合わせる。
ベストモデルでは、F1スコア0.81の1秒クリップがB線を含むか否かを判定し、87.5%の精度でB線で代表フレームを抽出する。
論文 参考訳(メタデータ) (2021-02-01T18:49:23Z) - Weakly-supervised Learning For Catheter Segmentation in 3D Frustum
Ultrasound [74.22397862400177]
超音波を用いた新しいカテーテルセグメンテーション法を提案する。
提案手法は,1ボリュームあたり0.25秒の効率で最先端の性能を実現した。
論文 参考訳(メタデータ) (2020-10-19T13:56:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。