論文の概要: WindowNet: Learnable Windows for Chest X-ray Classification
- arxiv url: http://arxiv.org/abs/2306.06038v2
- Date: Thu, 3 Aug 2023 16:21:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-04 16:48:36.582119
- Title: WindowNet: Learnable Windows for Chest X-ray Classification
- Title(参考訳): WindowNet: 胸部X線分類のための学習可能なWindows
- Authors: Alessandro Wollek, Sardi Hyska, Bastian Sabel, Michael Ingrisch,
Tobias Lasser
- Abstract要約: ウィンドウ化操作は画像のコントラストを高めるが、そのような操作がCXR分類性能に与える影響は明らかでない。
ウィンドウ化はCXR分類性能を向上させることを示し、最適なウィンドウ設定を学習するモデルであるWindowNetを提案する。
- 参考スコア(独自算出の注目度): 58.720142291102135
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Chest X-ray (CXR) images are commonly compressed to a lower resolution and
bit depth to reduce their size, potentially altering subtle diagnostic
features.
Radiologists use windowing operations to enhance image contrast, but the
impact of such operations on CXR classification performance is unclear.
In this study, we show that windowing can improve CXR classification
performance, and propose WindowNet, a model that learns optimal window
settings.
We first investigate the impact of bit-depth on classification performance
and find that a higher bit-depth (12-bit) leads to improved performance.
We then evaluate different windowing settings and show that training with a
distinct window generally improves pathology-wise classification performance.
Finally, we propose and evaluate WindowNet, a model that learns optimal
window settings, and show that it significantly improves performance compared
to the baseline model without windowing.
- Abstract(参考訳): 胸部X線(CXR)画像は低解像度でビット深度に圧縮され、そのサイズを小さくし、微妙な診断特性を変化させる可能性がある。
放射線技師は画像コントラストを高めるためにウィンドウ操作を用いるが、これらの操作がCXR分類性能に与える影響は明らかでない。
本研究では,CXR分類性能が向上することを示すとともに,最適なウィンドウ設定を学習するモデルであるWindowNetを提案する。
まず、ビット深度が分類性能に与える影響について検討し、高いビット深度(12ビット)で性能が向上することを示した。
次に,異なるウィンドウ設定を評価し,異なるウィンドウでのトレーニングが一般に病理学的分類性能を改善することを示す。
最後に,ウィンドウ設定を学習するモデルであるwindownetを提案し,その評価を行った。
関連論文リスト
- CDSE-UNet: Enhancing COVID-19 CT Image Segmentation with Canny Edge
Detection and Dual-Path SENet Feature Fusion [10.831487161893305]
CDSE-UNetは、Canny演算子エッジ検出とデュアルパスSENet機能融合機構を統合した、新しいUNetベースのセグメンテーションモデルである。
我々は,UNetの標準畳み込みを代替するマルチスケール畳み込み手法を開発し,病変の大きさや形状に適応した。
公開データセットの評価では、他の主要なモデルよりもCDSE-UNetの方が優れた性能を示している。
論文 参考訳(メタデータ) (2024-03-03T13:36:07Z) - Performance of GAN-based augmentation for deep learning COVID-19 image
classification [57.1795052451257]
ディープラーニングを医療分野に適用する上で最大の課題は、トレーニングデータの提供である。
データ拡張は、限られたデータセットに直面した時に機械学習で使用される典型的な方法論である。
本研究は, 新型コロナウイルスの胸部X線画像セットを限定して, StyleGAN2-ADAモデルを用いて訓練するものである。
論文 参考訳(メタデータ) (2023-04-18T15:39:58Z) - Dual Windows Are Significant: Learning from Mediastinal Window and
Focusing on Lung Window [17.962208699493658]
本稿では,連続する縦隔窓から特徴を学習する新しいDual Window RCNN Network (DWRNet)を提案する。
以上の結果から, 融解および代表的特徴は, 90.57%の精度で疾患コースの予測を改善することが示唆された。
論文 参考訳(メタデータ) (2022-06-08T10:59:59Z) - VSA: Learning Varied-Size Window Attention in Vision Transformers [76.35955924137986]
データから適応的なウィンドウ構成を学習するためのtextbfVaried-textbfSize Window textbfAttention (VSA)を提案する。
デフォルトウィンドウ内のトークンに基づいて、VSAはターゲットウィンドウのサイズと位置を予測するためにウィンドウ回帰モジュールを使用する。
論文 参考訳(メタデータ) (2022-04-18T17:56:07Z) - Content-Aware Convolutional Neural Networks [98.97634685964819]
畳み込みニューラルネットワーク(CNN)は、畳み込み層の強力な特徴学習能力によって大きな成功を収めている。
本研究では,スムーズなウィンドウを自動的に検出し,元の大規模カーネルを置き換えるために1x1畳み込みカーネルを適用するContent-aware Convolution (CAC)を提案する。
論文 参考訳(メタデータ) (2021-06-30T03:54:35Z) - CheXtransfer: Performance and Parameter Efficiency of ImageNet Models
for Chest X-Ray Interpretation [64.47297965270285]
胸部X線解釈のためのディープラーニングの方法は、通常、ImageNet用に開発された事前訓練モデルに依存します。
本研究では,大胸部X線データセット(CheXpert)上の16の一般的な畳み込みアーキテクチャの転送性能とパラメータ効率を比較した。
ImageNetのパフォーマンスとCheXpertのパフォーマンスには、事前トレーニングなしのモデルと事前トレーニングのあるモデルには関係がありません。
論文 参考訳(メタデータ) (2021-01-18T04:48:24Z) - Multi-Window Data Augmentation Approach for Speech Emotion Recognition [58.987211083697645]
音声感情認識のためのMWA-SER(Multi-Window Data Augmentation)アプローチを提案する。
MWA-SERは、音声拡張法の設計とディープラーニングモデルの構築という、2つの主要な概念に焦点を当てた一元的アプローチである。
深層学習モデルと組み合わせることで,音声の感情認識性能が向上することを示す。
論文 参考訳(メタデータ) (2020-10-19T22:15:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。