論文の概要: Comparing Different Deep Learning Architectures for Classification of
Chest Radiographs
- arxiv url: http://arxiv.org/abs/2002.08991v1
- Date: Thu, 20 Feb 2020 19:47:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-30 07:34:23.851795
- Title: Comparing Different Deep Learning Architectures for Classification of
Chest Radiographs
- Title(参考訳): 胸部x線画像分類のための異なるディープラーニングアーキテクチャの比較
- Authors: Keno K. Bressem, Lisa Adams, Christoph Erxleben, Bernd Hamm, Stefan
Niehues, Janis Vahldiek
- Abstract要約: 胸部ラジオグラフィーを分類するほとんどのモデルは、大きな画像データセットに基づいて訓練されたディープニューラルネットワークに由来する。
より小さなネットワークでは、胸部X線写真はより深いニューラルネットワークと正確に分類できる可能性が示されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Chest radiographs are among the most frequently acquired images in radiology
and are often the subject of computer vision research. However, most of the
models used to classify chest radiographs are derived from openly available
deep neural networks, trained on large image-datasets. These datasets routinely
differ from chest radiographs in that they are mostly color images and contain
several possible image classes, while radiographs are greyscale images and
often only contain fewer image classes. Therefore, very deep neural networks,
which can represent more complex relationships in image-features, might not be
required for the comparatively simpler task of classifying grayscale chest
radiographs. We compared fifteen different architectures of artificial neural
networks regarding training-time and performance on the openly available
CheXpert dataset to identify the most suitable models for deep learning tasks
on chest radiographs. We could show, that smaller networks such as ResNet-34,
AlexNet or VGG-16 have the potential to classify chest radiographs as precisely
as deeper neural networks such as DenseNet-201 or ResNet-151, while being less
computationally demanding.
- Abstract(参考訳): 胸部x線撮影は放射線学で最も頻繁に取得された画像の一つであり、しばしばコンピュータビジョン研究の対象となっている。
しかし、胸部X線画像の分類に用いられるモデルのほとんどは、大きな画像データセットに基づいてトレーニングされた、公開可能なディープニューラルネットワークに由来する。
これらのデータセットは、主にカラー画像であり、いくつかの画像クラスを含むという点で胸部X線写真と通常異なるが、X線写真はグレースケールの画像であり、しばしば少ない画像クラスしか含まない。
したがって、画像特徴におけるより複雑な関係を表現できる非常に深いニューラルネットワークは、グレースケール胸部X線撮影の比較的単純なタスクには必要ではないかもしれない。
我々は、CheXpertデータセットのトレーニング時間とパフォーマンスに関する15の異なるニューラルネットワークアーキテクチャを比較し、胸部X線写真におけるディープラーニングタスクに最適なモデルを特定した。
我々は、ResNet-34、AlexNet、VGG-16のような小さなネットワークが、胸部ラジオグラフをDenseNet-201やResNet-151のようなより深いニューラルネットワークと正確に分類する可能性を持っていることを示した。
関連論文リスト
- LeDNet: Localization-enabled Deep Neural Network for Multi-Label Radiography Image Classification [0.1227734309612871]
マルチラベルラジオグラフィー画像分類は、長い間ニューラルネットワーク研究における関心のトピックであった。
胸部X線画像を用いて胸部疾患を診断する。
胸部疾患を高精度に予測するために,LDNetと呼ばれる局所化アルゴリズムと深層学習アルゴリズムの組み合わせを提案する。
論文 参考訳(メタデータ) (2024-07-04T13:46:30Z) - On the Feasibility of Deep Learning Classification from Raw Signal Data in Radiology, Ultrasonography and Electrophysiology [0.0]
本稿では,ラジオグラフィ,超音波,電気生理学におけるディープラーニングの主な応用について述べる。
提案するニューラルネットワークトレーニングが生信号に直接適用可能かどうかを論じる。
論文 参考訳(メタデータ) (2024-02-25T18:07:07Z) - Performance of GAN-based augmentation for deep learning COVID-19 image
classification [57.1795052451257]
ディープラーニングを医療分野に適用する上で最大の課題は、トレーニングデータの提供である。
データ拡張は、限られたデータセットに直面した時に機械学習で使用される典型的な方法論である。
本研究は, 新型コロナウイルスの胸部X線画像セットを限定して, StyleGAN2-ADAモデルを用いて訓練するものである。
論文 参考訳(メタデータ) (2023-04-18T15:39:58Z) - Data-Efficient Vision Transformers for Multi-Label Disease
Classification on Chest Radiographs [55.78588835407174]
視覚変換器(ViT)は一般的な画像の分類性能が高いにもかかわらず、このタスクには適用されていない。
ViTは、畳み込みではなくパッチベースの自己アテンションに依存しており、CNNとは対照的に、ローカル接続に関する事前の知識は存在しない。
以上の結果から,ViTとCNNのパフォーマンスはViTの利点に匹敵するものの,DeiTsはトレーニング用に適度に大規模なデータセットが利用可能であれば,前者よりも優れることがわかった。
論文 参考訳(メタデータ) (2022-08-17T09:07:45Z) - Preservation of High Frequency Content for Deep Learning-Based Medical
Image Classification [74.84221280249876]
大量の胸部ラジオグラフィーの効率的な分析は、医師や放射線技師を助けることができる。
本稿では,視覚情報の効率的な識別と符号化のための離散ウェーブレット変換(DWT)を提案する。
論文 参考訳(メタデータ) (2022-05-08T15:29:54Z) - Cross-Modal Contrastive Learning for Abnormality Classification and
Localization in Chest X-rays with Radiomics using a Feedback Loop [63.81818077092879]
医療画像のためのエンドツーエンドのセミスーパーバイスドクロスモーダルコントラスト学習フレームワークを提案する。
まず、胸部X線を分類し、画像特徴を生成するために画像エンコーダを適用する。
放射能の特徴は別の専用エンコーダを通過し、同じ胸部x線から生成された画像の特徴の正のサンプルとして機能する。
論文 参考訳(メタデータ) (2021-04-11T09:16:29Z) - Joint Modeling of Chest Radiographs and Radiology Reports for Pulmonary
Edema Assessment [39.60171837961607]
我々は,胸部X線写真から肺浮腫の重症度を評価するために,画像と自由テキストの両方で訓練されたニューラルネットワークモデルを開発した。
実験結果から,共同画像・テキスト表現学習は肺浮腫評価の性能を向上させることが示唆された。
論文 参考訳(メタデータ) (2020-08-22T17:28:39Z) - Learning Invariant Feature Representation to Improve Generalization
across Chest X-ray Datasets [55.06983249986729]
我々は、トレーニングデータと同じデータセットでテストすると、ディープラーニングモデルが、異なるソースからデータセットでテストされると、パフォーマンスが低下し始めることを示す。
対戦型トレーニング戦略を用いることで、ネットワークはソース不変表現を学習せざるを得ないことを示す。
論文 参考訳(メタデータ) (2020-08-04T07:41:15Z) - Evaluation of Contemporary Convolutional Neural Network Architectures
for Detecting COVID-19 from Chest Radiographs [0.0]
胸部X線写真解析のための3つのモデルアーキテクチャを,様々な条件下で訓練し,評価した。
本稿では,現代の研究によって提案された印象的なモデル性能を低下させる問題を見いだす。
論文 参考訳(メタデータ) (2020-06-30T15:22:39Z) - Y-Net for Chest X-Ray Preprocessing: Simultaneous Classification of
Geometry and Segmentation of Annotations [70.0118756144807]
この研究は、機械学習アルゴリズムに胸部X線入力のための一般的な前処理ステップを導入する。
VGG11エンコーダをベースとした改良Y-Netアーキテクチャを用いて,ラジオグラフィの幾何学的配向とセグメンテーションを同時に学習する。
対照画像の27.0%,34.9%に対し,95.8%,96.2%のアノテーションマスクが認められた。
論文 参考訳(メタデータ) (2020-05-08T02:16:17Z) - Separation of target anatomical structure and occlusions in chest
radiographs [2.0478628221188497]
本稿では,無線画像から望ましくない視覚構造を抑圧する完全畳み込みネットワークを提案する。
提案アルゴリズムは高分解能CTスキャンから再構成されたラジオグラフィーと地上構造データを生成する。
論文 参考訳(メタデータ) (2020-02-03T14:01:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。