論文の概要: Automatic Recognition of Abdominal Organs in Ultrasound Images based on
Deep Neural Networks and K-Nearest-Neighbor Classification
- arxiv url: http://arxiv.org/abs/2110.04563v1
- Date: Sat, 9 Oct 2021 13:11:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2021-10-12 14:45:15.726536
- Title: Automatic Recognition of Abdominal Organs in Ultrasound Images based on
Deep Neural Networks and K-Nearest-Neighbor Classification
- Title(参考訳): 深層ニューラルネットワークとk-nearest-neighbor分類に基づく超音波画像中の腹部臓器の自動認識
- Authors: Keyu Li, Yangxin Xu, Max Q.-H. Meng
- Abstract要約: 腹部超音波検査は様々な腹部臓器の診断・治療に広く用いられている。
ディープラーニング技術とk-Nearest-Neighbor(k-NN)分類を組み合わせた分類手法を提案する。
超音波画像の腹部臓器を96.67%の精度でリアルタイムに認識する。
- 参考スコア(独自算出の注目度): 28.59331820372896
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Abdominal ultrasound imaging has been widely used to assist in the diagnosis
and treatment of various abdominal organs. In order to shorten the examination
time and reduce the cognitive burden on the sonographers, we present a
classification method that combines the deep learning techniques and
k-Nearest-Neighbor (k-NN) classification to automatically recognize various
abdominal organs in the ultrasound images in real time. Fine-tuned deep neural
networks are used in combination with PCA dimension reduction to extract
high-level features from raw ultrasound images, and a k-NN classifier is
employed to predict the abdominal organ in the image. We demonstrate the
effectiveness of our method in the task of ultrasound image classification to
automatically recognize six abdominal organs. A comprehensive comparison of
different configurations is conducted to study the influence of different
feature extractors and classifiers on the classification accuracy. Both
quantitative and qualitative results show that with minimal training effort,
our method can "lazily" recognize the abdominal organs in the ultrasound images
in real time with an accuracy of 96.67%. Our implementation code is publicly
available at: https://github.com/LeeKeyu/abdominal_ultrasound_classification.
- Abstract(参考訳): 腹部超音波画像は様々な腹部臓器の診断と治療に広く用いられている。
超音波画像中の様々な腹部臓器を自動的に認識するために,深層学習技術とk-Nearest-Neighbor(k-NN)分類を組み合わせた分類法を提案する。
微調整深部ニューラルネットワークとPCA次元の低減を併用して生の超音波画像から高次特徴を抽出し、画像中の腹部臓器を予測するためにk-NN分類器を用いる。
腹部6臓器を自動認識する超音波画像分類の課題において,本手法の有効性を実証する。
異なる特徴抽出器と分類器が分類精度に与える影響を検討するために, 異なる構成の包括的比較を行った。
定量的・定性的ともに, 最小限の訓練で超音波画像中の腹部臓器を96.67%の精度でリアルタイムに"遅延"認識できることを示した。
私たちの実装コードは、https://github.com/LeeKeyu/abdominal_ultrasound_classificationで公開されています。
関連論文リスト
- FUSC: Fetal Ultrasound Semantic Clustering of Second Trimester Scans
Using Deep Self-supervised Learning [1.0819408603463427]
毎年1億4000万人以上の胎児が生まれ、多くのスキャンが行われる。
大量の胎児超音波スキャンが利用可能であることは、堅牢な機械学習モデルをトレーニングする機会を提供する。
本研究では,超音波画像の自動クラスタリングのための教師なしアプローチを提案する。
論文 参考訳(メタデータ) (2023-10-19T09:11:23Z) - AiAReSeg: Catheter Detection and Segmentation in Interventional
Ultrasound using Transformers [75.20925220246689]
血管内手術は、電離放射線を用いてカテーテルと血管を可視化するFluoroscopyの黄金標準を用いて行われる。
本研究では、最先端機械学習トランスフォーマアーキテクチャを応用して、軸干渉超音波画像シーケンス中のカテーテルを検出し、セグメント化する手法を提案する。
論文 参考訳(メタデータ) (2023-09-25T19:34:12Z) - Using Spatio-Temporal Dual-Stream Network with Self-Supervised Learning
for Lung Tumor Classification on Radial Probe Endobronchial Ultrasound Video [0.0]
肺がんの生検の過程で、医師はリアルタイム超音波画像を使用して、サンプリングに適した病変を見つける。
これまでの研究では良性肺病変と悪性肺病変を効果的に区別するために2D畳み込みニューラルネットワークを用いてきた。
本研究では,3次元ニューラルネットワークに基づく自動診断システムを設計する。
論文 参考訳(メタデータ) (2023-05-04T10:39:37Z) - Preservation of High Frequency Content for Deep Learning-Based Medical
Image Classification [74.84221280249876]
大量の胸部ラジオグラフィーの効率的な分析は、医師や放射線技師を助けることができる。
本稿では,視覚情報の効率的な識別と符号化のための離散ウェーブレット変換(DWT)を提案する。
論文 参考訳(メタデータ) (2022-05-08T15:29:54Z) - Image translation of Ultrasound to Pseudo Anatomical Display Using
Artificial Intelligence [0.0]
CycleGANは、各ドメインプロパティを個別に学習し、クロスドメインサイクルの一貫性を強制するために使用された。
生成された擬似解剖画像は、より明確な境界定義と明瞭なコントラストで、病変の視覚的識別を改善する。
論文 参考訳(メタデータ) (2022-02-16T13:31:49Z) - Voice-assisted Image Labelling for Endoscopic Ultrasound Classification
using Neural Networks [48.732863591145964]
本稿では,臨床医が提示した生音声からのEUS画像にラベルを付けるマルチモーダル畳み込みニューラルネットワークアーキテクチャを提案する。
その結果,5つのラベルを持つデータセットにおいて,画像レベルでの予測精度は76%であった。
論文 参考訳(メタデータ) (2021-10-12T21:22:24Z) - Deep Learning for Ultrasound Beamforming [120.12255978513912]
受信した超音波エコーを空間画像領域にマッピングするビームフォーミングは、超音波画像形成チェーンの心臓に位置する。
現代の超音波イメージングは、強力なデジタル受信チャネル処理の革新に大きく依存している。
ディープラーニング手法は、デジタルビームフォーミングパイプラインにおいて魅力的な役割を果たす。
論文 参考訳(メタデータ) (2021-09-23T15:15:21Z) - Classification of Breast Cancer Lesions in Ultrasound Images by using
Attention Layer and loss Ensembles in Deep Convolutional Neural Networks [0.0]
本稿では,VGG16アーキテクチャーのアテンションモジュールを用いた乳癌病変の分類のための新しい枠組みを提案する。
また,双曲性コサイン損失の二値交互エントロピーと対数の組み合わせである新たなアンサンブル損失関数を提案し,分類病変とそのラベル間のモデル差を改善する。
本研究で提案したモデルは,93%の精度で他の改良VGG16アーキテクチャよりも優れており,乳がん病変の分類のための他の技術フレームワークと競合する結果となった。
論文 参考訳(メタデータ) (2021-02-23T06:49:12Z) - Improved Slice-wise Tumour Detection in Brain MRIs by Computing
Dissimilarities between Latent Representations [68.8204255655161]
磁気共鳴画像(MRI)の異常検出は教師なし手法で行うことができる。
本研究では,変分オートエンコーダの潜伏空間における相似関数の計算に基づいて,腫瘍検出のためのスライスワイズ半教師法を提案する。
本研究では,高解像度画像上でのモデルをトレーニングし,再現の質を向上させることにより,異なるベースラインに匹敵する結果が得られることを示す。
論文 参考訳(メタデータ) (2020-07-24T14:02:09Z) - Spectral-Spatial Recurrent-Convolutional Networks for In-Vivo
Hyperspectral Tumor Type Classification [49.32653090178743]
ハイパースペクトル画像とディープラーニングを用いたin-vivo腫瘍型分類の可能性を示した。
我々の最良のモデルは76.3%のAUCを達成し、従来の学習手法とディープラーニング手法を著しく上回っている。
論文 参考訳(メタデータ) (2020-07-02T12:00:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。