論文の概要: Voice-assisted Image Labelling for Endoscopic Ultrasound Classification
using Neural Networks
- arxiv url: http://arxiv.org/abs/2110.06367v1
- Date: Tue, 12 Oct 2021 21:22:24 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-15 06:29:40.017717
- Title: Voice-assisted Image Labelling for Endoscopic Ultrasound Classification
using Neural Networks
- Title(参考訳): ニューラルネットワークを用いた超音波内視鏡分類のための音声支援画像ラベリング
- Authors: Ester Bonmati, Yipeng Hu, Alexander Grimwood, Gavin J. Johnson, George
Goodchild, Margaret G. Keane, Kurinchi Gurusamy, Brian Davidson, Matthew J.
Clarkson, Stephen P. Pereira, Dean C. Barratt
- Abstract要約: 本稿では,臨床医が提示した生音声からのEUS画像にラベルを付けるマルチモーダル畳み込みニューラルネットワークアーキテクチャを提案する。
その結果,5つのラベルを持つデータセットにおいて,画像レベルでの予測精度は76%であった。
- 参考スコア(独自算出の注目度): 48.732863591145964
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Ultrasound imaging is a commonly used technology for visualising patient
anatomy in real-time during diagnostic and therapeutic procedures. High
operator dependency and low reproducibility make ultrasound imaging and
interpretation challenging with a steep learning curve. Automatic image
classification using deep learning has the potential to overcome some of these
challenges by supporting ultrasound training in novices, as well as aiding
ultrasound image interpretation in patient with complex pathology for more
experienced practitioners. However, the use of deep learning methods requires a
large amount of data in order to provide accurate results. Labelling large
ultrasound datasets is a challenging task because labels are retrospectively
assigned to 2D images without the 3D spatial context available in vivo or that
would be inferred while visually tracking structures between frames during the
procedure. In this work, we propose a multi-modal convolutional neural network
(CNN) architecture that labels endoscopic ultrasound (EUS) images from raw
verbal comments provided by a clinician during the procedure. We use a CNN
composed of two branches, one for voice data and another for image data, which
are joined to predict image labels from the spoken names of anatomical
landmarks. The network was trained using recorded verbal comments from expert
operators. Our results show a prediction accuracy of 76% at image level on a
dataset with 5 different labels. We conclude that the addition of spoken
commentaries can increase the performance of ultrasound image classification,
and eliminate the burden of manually labelling large EUS datasets necessary for
deep learning applications.
- Abstract(参考訳): 超音波イメージングは、診断および治療中の患者解剖をリアルタイムで可視化するための一般的に用いられる技術である。
高いオペレータ依存性と低い再現性は、急な学習曲線で超音波画像と解釈に挑戦する。
深層学習による自動画像分類は, 初心者の超音波訓練支援や, 複雑な病理疾患を有する患者の超音波画像解釈支援などにより, 課題を克服する可能性が示唆されている。
しかし、正確な結果を得るためには、ディープラーニング手法を使用するには大量のデータが必要である。
大規模な超音波データセットのラベル付けは、インビボで利用可能な3d空間コンテキストのない2d画像にラベルを遡及的に割り当てることや、手術中にフレーム間を視覚的に追跡しながら推測されるため、難しい課題である。
そこで本研究では,臨床医が提示した生の言語コメントから内視鏡的超音波画像(eus)をラベル付けするマルチモーダル畳み込みニューラルネットワーク(cnn)アーキテクチャを提案する。
我々は,音声データと画像データに2つの枝からなるCNNを用いて,解剖学的ランドマークの音声名から画像ラベルを予測する。
ネットワークは専門家による音声によるコメントを用いて訓練された。
その結果,5つのラベルを持つデータセットにおいて,画像レベルでの予測精度は76%であった。
音声によるコメントの追加は,超音波画像分類の性能を高め,深層学習に必要な大規模なEUSデータセットを手作業でラベル付けする作業の負担を軽減することができる。
関連論文リスト
- S-CycleGAN: Semantic Segmentation Enhanced CT-Ultrasound Image-to-Image Translation for Robotic Ultrasonography [2.07180164747172]
我々はS-CycleGANと呼ばれる高度なディープラーニングモデルを導入し,CTデータから高品質な合成超音波画像を生成する。
合成画像を用いて,ロボット支援超音波スキャンシステムの開発の諸側面を解明する。
論文 参考訳(メタデータ) (2024-06-03T10:53:45Z) - CathFlow: Self-Supervised Segmentation of Catheters in Interventional Ultrasound Using Optical Flow and Transformers [66.15847237150909]
縦型超音波画像におけるカテーテルのセグメンテーションのための自己教師型ディープラーニングアーキテクチャを提案する。
ネットワークアーキテクチャは、Attention in Attentionメカニズムで構築されたセグメンテーショントランスフォーマであるAiAReSeg上に構築されている。
我々は,シリコンオルタファントムから収集した合成データと画像からなる実験データセット上で,我々のモデルを検証した。
論文 参考訳(メタデータ) (2024-03-21T15:13:36Z) - Cardiac ultrasound simulation for autonomous ultrasound navigation [4.036497185262817]
本稿では,他のモーダルや任意の位置から大量の超音波画像を生成する手法を提案する。
本稿では,他のモダリティからのセグメンテーション,最適化されたデータ表現,GPUによるモンテカルロ経路のトレースを用いた新しいシミュレーションパイプラインを提案する。
提案手法により,患者固有の超音波画像の高速かつ正確な生成が可能となり,ナビゲーション関連タスクのためのトレーニングネットワークのユーザビリティが実証された。
論文 参考訳(メタデータ) (2024-02-09T15:14:48Z) - AiAReSeg: Catheter Detection and Segmentation in Interventional
Ultrasound using Transformers [75.20925220246689]
血管内手術は、電離放射線を用いてカテーテルと血管を可視化するFluoroscopyの黄金標準を用いて行われる。
本研究では、最先端機械学習トランスフォーマアーキテクチャを応用して、軸干渉超音波画像シーケンス中のカテーテルを検出し、セグメント化する手法を提案する。
論文 参考訳(メタデータ) (2023-09-25T19:34:12Z) - LOTUS: Learning to Optimize Task-based US representations [39.81131738128329]
超音波画像における臓器の解剖学的セグメンテーションは多くの臨床応用に不可欠である。
既存のディープニューラルネットワークは、臨床的に許容できるパフォーマンスを達成するために、トレーニングのために大量のラベル付きデータを必要とする。
本稿では,タスクベース超音速画像表現を最適化する学習手法を提案する。
論文 参考訳(メタデータ) (2023-07-29T16:29:39Z) - Data-Efficient Vision Transformers for Multi-Label Disease
Classification on Chest Radiographs [55.78588835407174]
視覚変換器(ViT)は一般的な画像の分類性能が高いにもかかわらず、このタスクには適用されていない。
ViTは、畳み込みではなくパッチベースの自己アテンションに依存しており、CNNとは対照的に、ローカル接続に関する事前の知識は存在しない。
以上の結果から,ViTとCNNのパフォーマンスはViTの利点に匹敵するものの,DeiTsはトレーニング用に適度に大規模なデータセットが利用可能であれば,前者よりも優れることがわかった。
論文 参考訳(メタデータ) (2022-08-17T09:07:45Z) - Deep Learning for Ultrasound Beamforming [120.12255978513912]
受信した超音波エコーを空間画像領域にマッピングするビームフォーミングは、超音波画像形成チェーンの心臓に位置する。
現代の超音波イメージングは、強力なデジタル受信チャネル処理の革新に大きく依存している。
ディープラーニング手法は、デジタルビームフォーミングパイプラインにおいて魅力的な役割を果たす。
論文 参考訳(メタデータ) (2021-09-23T15:15:21Z) - Semantic segmentation of multispectral photoacoustic images using deep
learning [53.65837038435433]
光音響イメージングは医療に革命をもたらす可能性がある。
この技術の臨床的翻訳には、高次元取得したデータを臨床的に関連性があり解釈可能な情報に変換する必要がある。
本稿では,多スペクトル光音響画像のセマンティックセグメンテーションに対する深層学習に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2021-05-20T09:33:55Z) - Ultrasound Image Classification using ACGAN with Small Training Dataset [0.0]
ディープラーニングモデルのトレーニングには大きなラベル付きデータセットが必要であるが、超音波画像では利用できないことが多い。
我々は、大規模データ拡張と転送学習の利点を組み合わせた、ジェネレーティブ・アドバイサル・ネットワーク(ACGAN)を利用する。
乳房超音波画像のデータセットを用いて,提案手法の有効性を示す実験を行った。
論文 参考訳(メタデータ) (2021-01-31T11:11:24Z) - Breast lesion segmentation in ultrasound images with limited annotated
data [2.905751301655124]
セグメント化ネットワークを事前学習するために,アメリカのシミュレーション画像と自然画像を補助的データセットとして用いることを提案する。
プレトレーニングネットワークの微調整により,スクラッチによるトレーニングに比べて,ダイススコアが21%向上することを示す。
論文 参考訳(メタデータ) (2020-01-21T03:34:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。