論文の概要: A Comparative Performance Analysis of Classification and Segmentation Models on Bangladeshi Pothole Dataset
- arxiv url: http://arxiv.org/abs/2501.06602v1
- Date: Sat, 11 Jan 2025 18:03:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-14 14:24:37.656317
- Title: A Comparative Performance Analysis of Classification and Segmentation Models on Bangladeshi Pothole Dataset
- Title(参考訳): バングラデシュポットホールデータセットの分類とセグメンテーションモデルの比較解析
- Authors: Antara Firoz Parsa, S. M. Abdullah, Anika Hasan Talukder, Md. Asif Shahidullah Kabbya, Shakib Al Hasan, Md. Farhadul Islam, Jannatun Noor,
- Abstract要約: この研究は、バングラデシュのポットホールデータセットに適用される一般的な分類とセグメンテーションモデルの総合的なパフォーマンス分析を含む。
ダッカとボグラの街路から収集された824のサンプルからなるこのカスタムデータセットは、既存の工業用およびカスタム用データセットと競合する。
実験の結果,我々のデータセットは,既存の文献で使用されている類似の分類モデルに匹敵する性能を示し,99%以上の精度とf1スコアを達成できた。
- 参考スコア(独自算出の注目度): 0.953693516244499
- License:
- Abstract: The study involves a comprehensive performance analysis of popular classification and segmentation models, applied over a Bangladeshi pothole dataset, being developed by the authors of this research. This custom dataset of 824 samples, collected from the streets of Dhaka and Bogura performs competitively against the existing industrial and custom datasets utilized in the present literature. The dataset was further augmented four-fold for segmentation and ten-fold for classification evaluation. We tested nine classification models (CCT, CNN, INN, Swin Transformer, ConvMixer, VGG16, ResNet50, DenseNet201, and Xception) and four segmentation models (U-Net, ResU-Net, U-Net++, and Attention-Unet) over both the datasets. Among the classification models, lightweight models namely CCT, CNN, INN, Swin Transformer, and ConvMixer were emphasized due to their low computational requirements and faster prediction times. The lightweight models performed respectfully, oftentimes equating to the performance of heavyweight models. In addition, augmentation was found to enhance the performance of all the tested models. The experimental results exhibit that, our dataset performs on par or outperforms the similar classification models utilized in the existing literature, reaching accuracy and f1-scores over 99%. The dataset also performed on par with the existing datasets for segmentation, achieving model Dice Similarity Coefficient up to 67.54% and IoU scores up to 59.39%.
- Abstract(参考訳): この研究は、バングラデシュのポットホールデータセット上で適用された一般的な分類モデルとセグメンテーションモデルの総合的なパフォーマンス分析を含んでおり、この研究の著者によって開発されている。
ダッカとボグラの街路から収集された824個のサンプルからなるこのカスタムデータセットは、現在の文献で使用されている既存の産業用およびカスタムデータセットに対して競争的に機能する。
データセットはセグメンテーションのためにさらに4倍、分類評価のために10倍に強化された。
9つの分類モデル(CCT, CNN, INN, Swin Transformer, ConvMixer, VGG16, ResNet50, DenseNet201, Xception)と4つのセグメンテーションモデル(U-Net, ResU-Net, U-Net++, Attention-Unet)を両方のデータセット上でテストした。
分類モデルの中で、CCT、CNN、NN、Swin Transformer、ConvMixerといった軽量モデルは、計算要求の低さと予測時間の短縮により強調された。
軽量モデルは、しばしば重量級モデルの性能に匹敵する、敬意をもって実行された。
さらに,全試験モデルの性能向上を図った。
実験の結果,我々のデータセットは,既存の文献で使用されている類似の分類モデルに匹敵する性能を示し,99%以上の精度とf1スコアを達成できた。
データセットは、既存のセグメンテーションデータセットと同等に実行され、モデルDice similarity Coefficientを最大67.54%、IoUスコアを最大59.39%達成した。
関連論文リスト
- DataDream: Few-shot Guided Dataset Generation [90.09164461462365]
実データ分布をより忠実に表現する分類データセットを合成するためのフレームワークを提案する。
DataDream fine-tunes LoRA weights for the image generation model on the few real image before generated the training data using the adapt model。
次に、合成データを用いてCLIPのLoRA重みを微調整し、様々なデータセットに対する以前のアプローチよりも下流画像の分類を改善する。
論文 参考訳(メタデータ) (2024-07-15T17:10:31Z) - A Lightweight Measure of Classification Difficulty from Application Dataset Characteristics [4.220363193932374]
効率的なコサイン類似度に基づく分類困難度尺度Sを提案する。
データセットのクラス数とクラス内およびクラス間の類似度メトリクスから計算される。
この手法を実践者が、繰り返しトレーニングやテストによって、6倍から29倍の速度で効率の良いモデルを選択するのにどのように役立つかを示す。
論文 参考訳(メタデータ) (2024-04-09T03:27:09Z) - No "Zero-Shot" Without Exponential Data: Pretraining Concept Frequency Determines Multimodal Model Performance [68.18779562801762]
マルチモーダルモデルは、下流の"ゼロショット"のパフォーマンスを線形改善するために、指数関数的に多くのデータを必要とする。
本研究は,大規模な訓練パラダイムの下での「ゼロショット」一般化能力の鍵となる訓練データに対する指数関数的要求を明らかにする。
論文 参考訳(メタデータ) (2024-04-04T17:58:02Z) - Feedback-guided Data Synthesis for Imbalanced Classification [10.836265321046561]
有用な合成サンプルを用いて静的データセットを拡張するためのフレームワークを提案する。
サンプルはタスクの実際のデータのサポートに近づき、十分に多様であることに気付きました。
ImageNet-LTでは、表現不足のクラスでは4%以上改善され、最先端の結果が得られます。
論文 参考訳(メタデータ) (2023-09-29T21:47:57Z) - A Meta-Learning Approach to Predicting Performance and Data Requirements [163.4412093478316]
本稿では,モデルが目標性能に達するために必要なサンプル数を推定する手法を提案する。
モデル性能を推定するデファクト原理であるパワー法則が,小さなデータセットを使用する場合の誤差が大きいことが判明した。
本稿では,2つのデータを異なる方法で処理するPPL法について紹介する。
論文 参考訳(メタデータ) (2023-03-02T21:48:22Z) - Part-Based Models Improve Adversarial Robustness [57.699029966800644]
人間の事前知識とエンドツーエンドの学習を組み合わせることで、ディープニューラルネットワークの堅牢性を向上させることができることを示す。
我々のモデルは、部分分割モデルと小さな分類器を組み合わせて、オブジェクトを同時に部品に分割するようにエンドツーエンドに訓練されている。
実験の結果,これらのモデルによりテクスチャバイアスが低減され,一般的な汚職に対する堅牢性が向上し,相関が急上昇することが示唆された。
論文 参考訳(メタデータ) (2022-09-15T15:41:47Z) - Machine Learning Models in Stock Market Prediction [0.0]
本論文は,8つの教師付き機械学習モデルを用いて,ニフティ50指数を予測することに焦点を当てている。
実験は、1996年4月22日から2021年4月16日までのインド株式市場ニフティ50指数の歴史的データに基づいている。
論文 参考訳(メタデータ) (2022-02-06T10:33:42Z) - MSeg: A Composite Dataset for Multi-domain Semantic Segmentation [100.17755160696939]
セマンティックセグメンテーションデータセットを異なるドメインから統合する合成データセットであるMSegを提案する。
一般化と画素レベルのアノテーションのアライメントを調整し,2万枚以上のオブジェクトマスクを8万枚以上の画像で再現する。
MSegでトレーニングされたモデルは、WildDash-v1のリーダーボードで、トレーニング中にWildDashのデータに触れることなく、堅牢なセマンティックセグメンテーションのためにランク付けされている。
論文 参考訳(メタデータ) (2021-12-27T16:16:35Z) - Comparing Test Sets with Item Response Theory [53.755064720563]
我々は,18の事前学習トランスフォーマーモデルから予測した29のデータセットを個別のテスト例で評価した。
Quoref、HellaSwag、MC-TACOは最先端のモデルを区別するのに最適である。
また、QAMRやSQuAD2.0のようなQAデータセットに使用されるスパン選択タスク形式は、強いモデルと弱いモデルとの差別化に有効である。
論文 参考訳(メタデータ) (2021-06-01T22:33:53Z) - A pipeline for fair comparison of graph neural networks in node
classification tasks [4.418753792543564]
グラフニューラルネットワーク (GNN) は, グラフデータを用いた複数の分野に適用可能性について検討されている。
新しいメソッドの公正な比較を保証するための標準的なトレーニング設定はありません。
ノード分類に同じトレーニング設定を適用可能な,標準的な再現可能なベンチマークを導入する。
論文 参考訳(メタデータ) (2020-12-19T07:43:05Z) - A Simple and Efficient Ensemble Classifier Combining Multiple Neural
Network Models on Social Media Datasets in Vietnamese [2.7528170226206443]
本研究の目的は、ベトナムの3つのベンチマークデータセットから、ソーシャルメディア上のベトナム語のテキストを分類することである。
この研究では、CNN、LSTM、およびそれらの変種を含む高度なディープラーニングモデルを使用し、最適化されている。
私たちのアンサンブルモデルは、3つのデータセットで最高のパフォーマンスを実現します。
論文 参考訳(メタデータ) (2020-09-28T04:28:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。