論文の概要: Deep Learning-Based Transfer Learning for Classification of Cassava Disease
- arxiv url: http://arxiv.org/abs/2502.19351v1
- Date: Wed, 26 Feb 2025 17:50:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-27 14:58:31.742443
- Title: Deep Learning-Based Transfer Learning for Classification of Cassava Disease
- Title(参考訳): Cassava病の分類のためのDeep Learning-based Transfer Learning
- Authors: Ademir G. Costa Junior, Fábio S. da Silva, Ricardo Rios,
- Abstract要約: 本稿では,カッサバ病画像の分類のための4つの畳み込みニューラルネットワークアーキテクチャの性能比較を行った。
その結果、このタスクの精度は87.7%、精度は87.8%、リコールは87.8%、F1スコアは87.7%であった。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: This paper presents a performance comparison among four Convolutional Neural Network architectures (EfficientNet-B3, InceptionV3, ResNet50, and VGG16) for classifying cassava disease images. The images were sourced from an imbalanced dataset from a competition. Appropriate metrics were employed to address class imbalance. The results indicate that EfficientNet-B3 achieved on this task accuracy of 87.7%, precision of 87.8%, revocation of 87.8% and F1-Score of 87.7%. These findings suggest that EfficientNet-B3 could be a valuable tool to support Digital Agriculture.
- Abstract(参考訳): 本稿では, カッサバ病画像の分類のための4つの畳み込みニューラルネットワークアーキテクチャ(EfficientNet-B3, InceptionV3, ResNet50, VGG16)の性能比較を行った。
画像は、競技者の不均衡なデータセットから得られたものです。
適切なメトリクスを使用して、クラスの不均衡に対処した。
その結果、このタスクの精度は87.7%、精度は87.8%、リコールは87.8%、F1スコアは87.7%であった。
これらの結果から,EfficientNet-B3はデジタル農業を支える貴重なツールである可能性が示唆された。
関連論文リスト
- Comparison of Neural Models for X-ray Image Classification in COVID-19 Detection [0.8287206589886879]
本研究は、放射線画像における新型コロナウイルス感染の検出方法の比較分析である。
DenseNetはマルチクラスアプローチでADAM最適化関数を使用して97.64%の精度を達成した。
バイナリ分類のアプローチでは、VGG、ResNet、MobileNetネットワークが取得した最高精度は99.98%であった。
論文 参考訳(メタデータ) (2025-01-08T00:17:03Z) - Analysis of Convolutional Neural Network-based Image Classifications: A Multi-Featured Application for Rice Leaf Disease Prediction and Recommendations for Farmers [0.0]
本研究では,8つの異なる畳み込みニューラルネットワーク(CNN)アルゴリズムを用いて,イネの病原性分類を改善する新しい方法を提案する。
この最先端のアプリケーションの助けを借りて、農家はタイムリーでインフォームドな意思決定ができる。
注目すべき結果は、ResNet-50の75%の精度、DenseNet121の90%の精度、VGG16の84%の精度、MobileNetV2の95.83%の精度、DenseNet169の91.61%の精度、InceptionV3の86%の精度である。
論文 参考訳(メタデータ) (2024-09-17T05:32:01Z) - Stacking-Enhanced Bagging Ensemble Learning for Breast Cancer Classification with CNN [0.24578723416255752]
本稿では,乳がん分類のためのBaggingおよびスタックングアンサンブル学習手法に基づくCNN分類ネットワークを提案する。
このモデルは入力画像の高速かつ正確な分類を行うことができる。
二項分類(乳がんの有無)では、精度は98.84%に達し、5級分類では98.34%に達した。
論文 参考訳(メタデータ) (2024-07-15T09:44:43Z) - Ensemble CNNs for Breast Tumor Classification [0.0]
我々は,最先端の分類網を探索し,アンサンブル機構を開発する。
性能を最大5%向上する各ネットワークから出力される確率を和らげることで,機構を組み立てる。
このスキームは公開データセット上で検証され,精度,精度,リコール率は88%,85%,76%であった。
論文 参考訳(メタデータ) (2023-04-11T10:59:38Z) - Focal Modulation Networks [105.93086472906765]
自己注意(SA)は完全に焦点変調ネットワーク(FocalNet)に置き換えられる
ImageNet-1Kの精度は82.3%、83.9%である。
FocalNetsは下流のタスクに転送する際、顕著な優位性を示す。
論文 参考訳(メタデータ) (2022-03-22T17:54:50Z) - To be Critical: Self-Calibrated Weakly Supervised Learning for Salient
Object Detection [95.21700830273221]
弱教師付き有色物体検出(WSOD)は,画像レベルのアノテーションを用いた有色度モデルの開発を目的としている。
擬似ラベルとネットワーク予測の相互校正ループを明確に設定し,自己校正学習戦略を提案する。
十分に整合したアノテーションを持つはるかに小さなデータセットであっても、モデルがより優れたパフォーマンスと一般化性を達成するのに役立ちます。
論文 参考訳(メタデータ) (2021-09-04T02:45:22Z) - VOLO: Vision Outlooker for Visual Recognition [148.12522298731807]
視覚変換器 (ViT) はイメージネット分類において自己注意に基づくモデルの可能性を示している。
我々は、新しい展望の展望を導入し、VoLO(Vision Outlooker)と呼ばれる、シンプルで一般的なアーキテクチャを提示する。
グローバルな依存性モデリングを粗いレベルで重視する自己注意とは異なり、展望はより詳細な機能やコンテキストをトークンに効率的にエンコードする。
実験の結果、私たちのVOLOはImageNet-1K分類で87.1%のトップ1の精度を達成しており、これはこの競合ベンチマークで87%以上の精度で最初のモデルである。
論文 参考訳(メタデータ) (2021-06-24T15:46:54Z) - Revisiting Batch Normalization for Improving Corruption Robustness [85.20742045853738]
モデルロバスト性を改善するために, モデルロバスト性を改善するために, バッチ正規化統計の修正を提案する。
モデルを再トレーニングすることなく、BN統計をいくつかの表現サンプル上で単純に推定し、適応させることで、大きなマージンによる腐敗の堅牢性を向上させることが判明した。
論文 参考訳(メタデータ) (2020-10-07T19:56:47Z) - Classification of COVID-19 in CT Scans using Multi-Source Transfer
Learning [91.3755431537592]
我々は,従来のトランスファー学習の改良にマルチソース・トランスファー・ラーニングを応用して,CTスキャンによる新型コロナウイルスの分類を提案する。
マルチソースファインチューニングアプローチでは、ImageNetで微調整されたベースラインモデルよりも優れています。
我々の最高のパフォーマンスモデルは、0.893の精度と0.897のリコールスコアを達成でき、ベースラインのリコールスコアを9.3%上回った。
論文 参考訳(メタデータ) (2020-09-22T11:53:06Z) - Fixing the train-test resolution discrepancy: FixEfficientNet [98.64315617109344]
本稿では,複数のトレーニング手順を用いて,効率的なNet画像分類器の性能解析を行う。
FixEfficientNetと呼ばれる結果のネットワークは、同じ数のパラメータで初期アーキテクチャを著しく上回る。
論文 参考訳(メタデータ) (2020-03-18T14:22:58Z) - Compounding the Performance Improvements of Assembled Techniques in a
Convolutional Neural Network [6.938261599173859]
基本CNNモデルの精度とロバスト性を改善する方法について述べる。
提案したResNet-50は、トップ1の精度を76.3%から82.78%、mCEを76.0%から48.9%、mFRを57.7%から32.3%に改善した。
CVPR 2019でiFood Competition Fine-Grained Visual Recognitionで1位を獲得した。
論文 参考訳(メタデータ) (2020-01-17T12:42:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。