論文の概要: Detecção da Psoríase Utilizando Visão Computacional: Uma Abordagem Comparativa Entre CNNs e Vision Transformers
- arxiv url: http://arxiv.org/abs/2506.10119v1
- Date: Wed, 11 Jun 2025 19:00:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-13 15:37:22.404197
- Title: Detecção da Psoríase Utilizando Visão Computacional: Uma Abordagem Comparativa Entre CNNs e Vision Transformers
- Title(参考訳): Detecção da Psoríase Utilizando Visão Computacional: Uma Abordagem Comparativa Entre CNNs e Vision Transformers
- Authors: Natanael Lucena, Fábio S. da Silva, Ricardo Rios,
- Abstract要約: 本報告では, 咽頭病変とそれに似た疾患を含む多分類画像のタスクにおけるCNNとViTsの性能の比較を行った。
ViTはより小型のモデルで優れた性能を誇った。
本稿では、医用画像分類タスクにおけるViTsの可能性を強化する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents a comparison of the performance of Convolutional Neural Networks (CNNs) and Vision Transformers (ViTs) in the task of multi-classifying images containing lesions of psoriasis and diseases similar to it. Models pre-trained on ImageNet were adapted to a specific data set. Both achieved high predictive metrics, but the ViTs stood out for their superior performance with smaller models. Dual Attention Vision Transformer-Base (DaViT-B) obtained the best results, with an f1-score of 96.4%, and is recommended as the most efficient architecture for automated psoriasis detection. This article reinforces the potential of ViTs for medical image classification tasks.
- Abstract(参考訳): 本稿では, 画像の分類における畳み込みニューラルネットワーク (CNN) と視覚変換器 (ViT) の性能の比較を行った。
ImageNetで事前トレーニングされたモデルは、特定のデータセットに適合した。
どちらも高い予測基準を達成したが、ViTはより小さなモデルで優れた性能を誇った。
Dual Attention Vision Transformer-Base (DaViT-B) は、96.4%のf1スコアで最良の結果を得た。
本稿では、医用画像分類タスクにおけるViTsの可能性を強化する。
関連論文リスト
- OCT Data is All You Need: How Vision Transformers with and without Pre-training Benefit Imaging [0.0]
我々は,イメージネットを用いた事前学習がOCT画像分類における視覚変換器(ViT)の性能に与える影響について検討した。
結果として、事前トレーニングは収束を加速し、より小さなデータセットでより良いパフォーマンスを提供する可能性があるが、十分なOCTデータが利用可能であれば、スクラッチからのトレーニングは同等またはそれ以上の精度を達成する可能性があることが示唆された。
論文 参考訳(メタデータ) (2025-02-17T23:31:57Z) - A Comparative Study of CNN, ResNet, and Vision Transformers for Multi-Classification of Chest Diseases [0.0]
ビジョントランスフォーマー(ViT)は、そのスケーラビリティと大量のデータを処理する能力のため、強力なツールである。
NIH Chest X-rayデータセットを用いて、ImageNetで事前トレーニングされたモデルと、スクラッチからトレーニングされたモデルである2種類のViTモデルを微調整した。
本研究は,14の異なる疾患の多ラベル分類において,これらのモデルの性能を評価するものである。
論文 参考訳(メタデータ) (2024-05-31T23:56:42Z) - ViT-DAE: Transformer-driven Diffusion Autoencoder for Histopathology
Image Analysis [4.724009208755395]
高品質な病理画像合成のための視覚変換器(ViT)と拡散オートエンコーダを統合したViT-DAEを提案する。
提案手法は, 実写画像生成におけるGAN法とバニラDAE法より優れている。
論文 参考訳(メタデータ) (2023-04-03T15:00:06Z) - Detecting Severity of Diabetic Retinopathy from Fundus Images: A Transformer Network-based Review [1.3217592635033124]
糖尿病網膜症(DR)は世界中の重要な問題の一つと考えられている。
本稿では,DRの重大度ステージの自動理解について述べる。
我々は、網膜画像の重要な特徴を捉えるために、トランスフォーマーに基づく学習モデルを採用し、微調整する。
論文 参考訳(メタデータ) (2023-01-03T07:05:38Z) - Data-Efficient Vision Transformers for Multi-Label Disease
Classification on Chest Radiographs [55.78588835407174]
視覚変換器(ViT)は一般的な画像の分類性能が高いにもかかわらず、このタスクには適用されていない。
ViTは、畳み込みではなくパッチベースの自己アテンションに依存しており、CNNとは対照的に、ローカル接続に関する事前の知識は存在しない。
以上の結果から,ViTとCNNのパフォーマンスはViTの利点に匹敵するものの,DeiTsはトレーニング用に適度に大規模なデータセットが利用可能であれば,前者よりも優れることがわかった。
論文 参考訳(メタデータ) (2022-08-17T09:07:45Z) - Improving Vision Transformers by Revisiting High-frequency Components [106.7140968644414]
視覚変換器(ViT)モデルは,CNNモデルよりも画像の高周波成分の捕捉に効果が低いことを示す。
本稿では,画像の高周波成分を直接補うHATを提案する。
HAT は様々な ViT モデルの性能を継続的に向上させることができることを示す。
論文 参考訳(メタデータ) (2022-04-03T05:16:51Z) - ViTAEv2: Vision Transformer Advanced by Exploring Inductive Bias for
Image Recognition and Beyond [76.35955924137986]
我々は、内在性IBを畳み込み、すなわちViTAEから探索するビジョントランスフォーマーを提案する。
ViTAEはいくつかの空間ピラミッド縮小モジュールを備えており、入力イメージをリッチなマルチスケールコンテキストでトークンに埋め込む。
我々は、ImageNet検証セット上で88.5%のTop-1分類精度と、ImageNet実検証セット上で最高の91.2%のTop-1分類精度を得る。
論文 参考訳(メタデータ) (2022-02-21T10:40:05Z) - Vision Transformers for femur fracture classification [59.99241204074268]
Vision Transformer (ViT) はテスト画像の83%を正確に予測することができた。
史上最大かつ最もリッチなデータセットを持つサブフラクチャーで良い結果が得られた。
論文 参考訳(メタデータ) (2021-08-07T10:12:42Z) - Vision Transformers are Robust Learners [65.91359312429147]
ビジョントランスフォーマー(ViT)の一般的な腐敗や摂動、分布シフト、自然逆転例に対する堅牢性について検討します。
ViTsが実際により堅牢な学習者である理由を説明するために、定量的および定性的な指標を提供する分析を提示します。
論文 参考訳(メタデータ) (2021-05-17T02:39:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。