論文の概要: Exploring the Impact of Image Resolution on Chest X-ray Classification
Performance
- arxiv url: http://arxiv.org/abs/2306.06051v1
- Date: Fri, 9 Jun 2023 17:21:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-12 12:23:11.803004
- Title: Exploring the Impact of Image Resolution on Chest X-ray Classification
Performance
- Title(参考訳): 胸部X線分類性能に及ぼす画像分解能の影響
- Authors: Alessandro Wollek, Sardi Hyska, Bastian Sabel, Michael Ingrisch,
Tobias Lasser
- Abstract要約: その結果、高解像度の画像解像度、特に1024Times1024$ピクセルは、全体的な分類性能が最も優れていることがわかった。
画像分類のためのディープラーニングモデルは、計算上の理由から224時間224ドルという解像度をしばしば用いている。
- 参考スコア(独自算出の注目度): 58.720142291102135
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning models for image classification have often used a resolution of
$224\times224$ pixels for computational reasons.
This study investigates the effect of image resolution on chest X-ray
classification performance, using the ChestX-ray14 dataset.
The results show that a higher image resolution, specifically
$1024\times1024$ pixels, has the best overall classification performance, with
a slight decline in performance between $256\times256$ to $512\times512$ pixels
for most of the pathological classes.
Comparison of saliency map-generated bounding boxes revealed that commonly
used resolutions are insufficient for finding most pathologies.
- Abstract(参考訳): 画像分類のためのディープラーニングモデルは、計算上の理由から、しばしば224\times224$ピクセルの解像度を使用する。
胸部X線分類における画像分解能の影響をChestX-ray14データセットを用いて検討した。
その結果、画像解像度が高め、特に1024\times1024$ピクセルは、最も優れた全体的な分類性能を示し、ほとんどの病理クラスで256\times256$から512\times512$ピクセルのパフォーマンスはわずかに低下した。
サリエンシマップ生成バウンディングボックスの比較により, 一般的に用いられている解像度は, 殆どの病態を見つけるには不十分であることが判明した。
関連論文リスト
- Chest X-ray Image Classification: A Causal Perspective [49.87607548975686]
本稿では,CXR分類問題に対処する因果的アプローチを提案し,構造因果モデル(SCM)を構築し,CXR分類に有効な視覚情報を選択するためにバックドア調整を用いる。
実験の結果,提案手法はオープンソースNIH ChestX-ray14の分類性能に優れていた。
論文 参考訳(メタデータ) (2023-05-20T03:17:44Z) - Performance of GAN-based augmentation for deep learning COVID-19 image
classification [57.1795052451257]
ディープラーニングを医療分野に適用する上で最大の課題は、トレーニングデータの提供である。
データ拡張は、限られたデータセットに直面した時に機械学習で使用される典型的な方法論である。
本研究は, 新型コロナウイルスの胸部X線画像セットを限定して, StyleGAN2-ADAモデルを用いて訓練するものである。
論文 参考訳(メタデータ) (2023-04-18T15:39:58Z) - Synthetic Data from Diffusion Models Improves ImageNet Classification [47.999055841125156]
大規模テキストから画像への拡散モデルは、クラス条件付きモデルを生成するために微調整することができる。
ImageNetトレーニングセットを結果モデルのサンプルで拡張すると、ImageNetの分類精度が大幅に向上する。
論文 参考訳(メタデータ) (2023-04-17T17:42:29Z) - Detection of COVID19 in Chest X-Ray Images Using Transfer Learning [0.0]
本稿では,VGG-16とVGG-19という,最もよく知られた2つのVGGNetアーキテクチャを用いたトランスファーラーニングの概念について検討する。
我々は,複数クラスとバイナリの分類問題において,正のCovid-19インスタンスを識別するために,提案システムの性能を評価するために2つの異なるデータセットを生成した。
論文 参考訳(メタデータ) (2023-04-09T05:02:04Z) - Long-Tailed Classification of Thorax Diseases on Chest X-Ray: A New
Benchmark Study [75.05049024176584]
胸部X線上の胸部疾患の特定領域における長期学習問題についてベンチマーク研究を行った。
我々は,自然に分布する胸部X線データから学ぶことに集中し,一般的な「頭部」クラスだけでなく,稀ながら重要な「尾」クラスよりも分類精度を最適化する。
このベンチマークは、19と20の胸郭疾患分類のための2つの胸部X線データセットで構成され、53,000のクラスと7のラベル付きトレーニング画像を含む。
論文 参考訳(メタデータ) (2022-08-29T04:34:15Z) - Classification of COVID-19 in Chest X-ray Images Using Fusion of Deep
Features and LightGBM [0.0]
本稿では,本論文で報告されている他の手法よりも高速かつ高精度な新しい手法を提案する。
提案手法はDenseNet169とMobileNet Deep Neural Networksを組み合わせて患者のX線画像の特徴を抽出する。
この方法は2クラス(COVID-19、Healthy)と複数クラス(COVID-19、Healthy、Pneumonia)で98.54%と91.11%の精度を達成した。
論文 参考訳(メタデータ) (2022-06-09T14:56:24Z) - Investigating and Exploiting Image Resolution for Transfer
Learning-based Skin Lesion Classification [3.110738188734789]
CNNは皮膚病変の分類に有効であることが示されている。
本稿では,入力画像サイズが細調整CNNの皮膚病変分類性能に及ぼす影響について検討する。
以上の結果から,64×64ピクセルの非常に小さな画像を用いて分類性能を低下させる一方,128×128ピクセルの画像では画像サイズが大きくなり,分類精度がわずかに向上した。
論文 参考訳(メタデータ) (2020-06-25T21:51:24Z) - Y-Net for Chest X-Ray Preprocessing: Simultaneous Classification of
Geometry and Segmentation of Annotations [70.0118756144807]
この研究は、機械学習アルゴリズムに胸部X線入力のための一般的な前処理ステップを導入する。
VGG11エンコーダをベースとした改良Y-Netアーキテクチャを用いて,ラジオグラフィの幾何学的配向とセグメンテーションを同時に学習する。
対照画像の27.0%,34.9%に対し,95.8%,96.2%のアノテーションマスクが認められた。
論文 参考訳(メタデータ) (2020-05-08T02:16:17Z) - Automated Methods for Detection and Classification Pneumonia based on
X-Ray Images Using Deep Learning [0.0]
Resnet50, MobileNet_V2, Inception_Resnet_V2の微調整版では, トレーニングや検証精度の向上率(精度の96%以上)で高い良好な性能を示した。
CNN、Xception、VGG16、VGG19、Inception_V3、DenseNet201とは異なり、性能は低い(84%以上の精度)。
論文 参考訳(メタデータ) (2020-03-31T16:48:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。