論文の概要: Magnification Invariant Medical Image Analysis: A Comparison of
Convolutional Networks, Vision Transformers, and Token Mixers
- arxiv url: http://arxiv.org/abs/2302.11488v1
- Date: Wed, 22 Feb 2023 16:44:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-23 14:37:52.568843
- Title: Magnification Invariant Medical Image Analysis: A Comparison of
Convolutional Networks, Vision Transformers, and Token Mixers
- Title(参考訳): 拡大不変医療画像解析:畳み込みネットワーク, 視覚変換器, トークンミキサーの比較
- Authors: Pranav Jeevan, Nikhil Cherian Kurian and Amit Sethi
- Abstract要約: 畳み込みニューラルネットワーク(CNN)は医用画像解析に広く用いられている。
テスト画像の倍率がトレーニング画像と異なる場合、その性能は低下する。
本研究の目的は,様々なディープラーニングアーキテクチャの堅牢性を評価することである。
- 参考スコア(独自算出の注目度): 2.3859625728972484
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Convolution Neural Networks (CNNs) are widely used in medical image analysis,
but their performance degrade when the magnification of testing images differ
from the training images. The inability of CNNs to generalize across
magnification scales can result in sub-optimal performance on external
datasets. This study aims to evaluate the robustness of various deep learning
architectures in the analysis of breast cancer histopathological images with
varying magnification scales at training and testing stages. Here we explore
and compare the performance of multiple deep learning architectures, including
CNN-based ResNet and MobileNet, self-attention-based Vision Transformers and
Swin Transformers, and token-mixing models, such as FNet, ConvMixer, MLP-Mixer,
and WaveMix. The experiments are conducted using the BreakHis dataset, which
contains breast cancer histopathological images at varying magnification
levels. We show that performance of WaveMix is invariant to the magnification
of training and testing data and can provide stable and good classification
accuracy. These evaluations are critical in identifying deep learning
architectures that can robustly handle changes in magnification scale, ensuring
that scale changes across anatomical structures do not disturb the inference
results.
- Abstract(参考訳): 畳み込みニューラルネットワーク(cnns)は医用画像解析に広く用いられているが、画像の倍率化が訓練画像と異なる場合、その性能は低下する。
拡大スケールをまたいで一般化できないcnnは、外部データセットの最適性能を低下させる可能性がある。
本研究は, 各種深層学習アーキテクチャの頑健性を評価することを目的として, トレーニングおよびテスト段階における拡大尺度の異なる乳癌病理像の解析を行う。
本稿では,CNNベースのResNetやMobileNet,自己アテンションベースのVision TransformerやSwin Transformer,FNet,ConvMixer,MLP-Mixer,WaveMixなどのトークン混合モデルなど,複数のディープラーニングアーキテクチャの性能について検討・比較する。
この実験は、乳がんの病理像を様々な倍率レベルで含むBreakHisデータセットを用いて行われた。
我々は,WaveMixの性能がトレーニングデータとテストデータの倍率に不変であることを示し,安定した分類精度を提供する。
これらの評価は、拡大スケールの変化を堅牢に処理し、解剖学的構造にわたるスケール変化が推論結果を妨げないようにする深層学習アーキテクチャの同定に重要である。
関連論文リスト
- Disease Classification and Impact of Pretrained Deep Convolution Neural Networks on Diverse Medical Imaging Datasets across Imaging Modalities [0.0]
本稿では,種々の医用画像データセット間での伝達学習を伴う,事前訓練された深部畳み込みニューラルネットワークの使用の複雑さについて検討する。
固定特徴抽出器として事前訓練されたモデルを使用することで,データセットに関係なく性能が低下することを示す。
また、より深く複雑なアーキテクチャが必ずしも最高のパフォーマンスをもたらすとは限らないことも判明した。
論文 参考訳(メタデータ) (2024-08-30T04:51:19Z) - A Comparative Study of CNN, ResNet, and Vision Transformers for Multi-Classification of Chest Diseases [0.0]
ビジョントランスフォーマー(ViT)は、そのスケーラビリティと大量のデータを処理する能力のため、強力なツールである。
NIH Chest X-rayデータセットを用いて、ImageNetで事前トレーニングされたモデルと、スクラッチからトレーニングされたモデルである2種類のViTモデルを微調整した。
本研究は,14の異なる疾患の多ラベル分類において,これらのモデルの性能を評価するものである。
論文 参考訳(メタデータ) (2024-05-31T23:56:42Z) - Boosting Medical Image Segmentation Performance with Adaptive Convolution Layer [6.887244952811574]
UCTransNetのような先進的なディープラーニングモデルに先立つ適応層を提案する。
我々のアプローチは、多様な解剖学的構造と微妙な画像の詳細を扱うネットワークの能力を高める。
従来のCNNよりも、同じ数のパラメータで固定されたカーネルサイズで一貫してパフォーマンスが向上している。
論文 参考訳(メタデータ) (2024-04-17T13:18:39Z) - Affine-Consistent Transformer for Multi-Class Cell Nuclei Detection [76.11864242047074]
本稿では, 原子核位置を直接生成する新しいアフィン一貫性変換器 (AC-Former) を提案する。
本稿では,AAT (Adaptive Affine Transformer) モジュールを導入し,ローカルネットワークトレーニングのためのオリジナル画像をワープするための重要な空間変換を自動学習する。
実験結果から,提案手法は様々なベンチマークにおいて既存の最先端アルゴリズムを著しく上回ることがわかった。
論文 参考訳(メタデータ) (2023-10-22T02:27:02Z) - The effect of data augmentation and 3D-CNN depth on Alzheimer's Disease
detection [51.697248252191265]
この研究は、データハンドリング、実験設計、モデル評価に関するベストプラクティスを要約し、厳密に観察する。
我々は、アルツハイマー病(AD)の検出に焦点を当て、医療における課題のパラダイム的な例として機能する。
このフレームワークでは,3つの異なるデータ拡張戦略と5つの異なる3D CNNアーキテクチャを考慮し,予測15モデルを訓練する。
論文 参考訳(メタデータ) (2023-09-13T10:40:41Z) - On Sensitivity and Robustness of Normalization Schemes to Input
Distribution Shifts in Automatic MR Image Diagnosis [58.634791552376235]
深層学習(DL)モデルは、再構成画像を入力として、複数の疾患の診断において最先端のパフォーマンスを達成した。
DLモデルは、トレーニングとテストフェーズ間の入力データ分布の変化につながるため、さまざまなアーティファクトに敏感である。
本稿では,グループ正規化やレイヤ正規化といった他の正規化手法を用いて,画像のさまざまなアーチファクトに対して,モデル性能にロバスト性を注入することを提案する。
論文 参考訳(メタデータ) (2023-06-23T03:09:03Z) - Optimizations of Autoencoders for Analysis and Classification of
Microscopic In Situ Hybridization Images [68.8204255655161]
同様のレベルの遺伝子発現を持つ顕微鏡画像の領域を検出・分類するためのディープラーニングフレームワークを提案する。
分析するデータには教師なし学習モデルが必要です。
論文 参考訳(メタデータ) (2023-04-19T13:45:28Z) - Performance of GAN-based augmentation for deep learning COVID-19 image
classification [57.1795052451257]
ディープラーニングを医療分野に適用する上で最大の課題は、トレーニングデータの提供である。
データ拡張は、限られたデータセットに直面した時に機械学習で使用される典型的な方法論である。
本研究は, 新型コロナウイルスの胸部X線画像セットを限定して, StyleGAN2-ADAモデルを用いて訓練するものである。
論文 参考訳(メタデータ) (2023-04-18T15:39:58Z) - Deep learning-based bias transfer for overcoming laboratory differences
of microscopic images [0.0]
免疫蛍光(IF)およびヘマトキシリンおよびエオシン(H&E)染色顕微鏡画像の領域シフトを克服するために,既存の生成モデルアーキテクチャを評価し,比較し,改良する。
前立腺生検では,ヒト腎糸球体およびポドサイトに対するピクセルレベルのセグメンテーションが有意に向上し,分類精度が最大14%向上した。
論文 参考訳(メタデータ) (2021-05-25T09:02:30Z) - Exploring Intensity Invariance in Deep Neural Networks for Brain Image
Registration [0.0]
深層学習に基づく画像登録における入力画像対間の強度分布の影響について検討する。
構造的類似性に基づく損失をトレーニングしたディープラーニングモデルは、両方のデータセットでよりよく機能しているようだ。
論文 参考訳(メタデータ) (2020-09-21T17:49:03Z) - Improved Slice-wise Tumour Detection in Brain MRIs by Computing
Dissimilarities between Latent Representations [68.8204255655161]
磁気共鳴画像(MRI)の異常検出は教師なし手法で行うことができる。
本研究では,変分オートエンコーダの潜伏空間における相似関数の計算に基づいて,腫瘍検出のためのスライスワイズ半教師法を提案する。
本研究では,高解像度画像上でのモデルをトレーニングし,再現の質を向上させることにより,異なるベースラインに匹敵する結果が得られることを示す。
論文 参考訳(メタデータ) (2020-07-24T14:02:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。