論文の概要: Vehicle Classification under Extreme Imbalance: A Comparative Study of Ensemble Learning and CNNs
- arxiv url: http://arxiv.org/abs/2509.24880v1
- Date: Mon, 29 Sep 2025 14:56:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:20.066057
- Title: Vehicle Classification under Extreme Imbalance: A Comparative Study of Ensemble Learning and CNNs
- Title(参考訳): 極不均衡下における車種分類 : 組立学習とCNNの比較検討
- Authors: Abu Hanif Muhammad Syarubany,
- Abstract要約: 車両のタイプ認識は、インテリジェントな輸送とロジスティクスを支えるが、公共データセットの厳しいクラス不均衡は、稀なカテゴリーのパフォーマンスを抑制する。
我々は、Kaggle、ImageNet、およびWebcrawledデータを統合することで、16クラスのコーパス(47k画像)をキュレートし、SMOTEオーバーサンプリングとターゲットアンダーサンプリングにより6つのバランスの取れた変種を生成する。
Random Forest、AdaBoost、MobileNet-V2機能上に構築されたソフトボッティングコンバインダなどの軽量アンサンブルは、強力な拡張とラベルスムーシングでトレーニングされたResNetスタイルのCNNに対してベンチマークされる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurate vehicle type recognition underpins intelligent transportation and logistics, but severe class imbalance in public datasets suppresses performance on rare categories. We curate a 16-class corpus (~47k images) by merging Kaggle, ImageNet, and web-crawled data, and create six balanced variants via SMOTE oversampling and targeted undersampling. Lightweight ensembles, such as Random Forest, AdaBoost, and a soft-voting combiner built on MobileNet-V2 features are benchmarked against a configurable ResNet-style CNN trained with strong augmentation and label smoothing. The best ensemble (SMOTE-combined) attains 74.8% test accuracy, while the CNN achieves 79.19% on the full test set and 81.25% on an unseen inference batch, confirming the advantage of deep models. Nonetheless, the most under-represented class (Barge) remains a failure mode, highlighting the limits of rebalancing alone. Results suggest prioritizing additional minority-class collection and cost-sensitive objectives (e.g., focal loss) and exploring hybrid ensemble or CNN pipelines to combine interpretability with representational power.
- Abstract(参考訳): 正確な車両型認識は、インテリジェントな輸送とロジスティクスを支えるが、公共データセットの厳しいクラス不均衡は、稀なカテゴリのパフォーマンスを抑制する。
我々は、Kaggle、ImageNet、およびWebcrawledデータを統合することで、16クラスのコーパス(約47kイメージ)をキュレートし、SMOTEオーバーサンプリングとターゲットアンダーサンプリングにより6つのバランスの取れた変種を生成する。
Random Forest、AdaBoost、MobileNet-V2機能上に構築されたソフトボッティングコンバインダなどの軽量アンサンブルは、強力な拡張とラベルスムーシングでトレーニングされたResNetスタイルのCNNに対してベンチマークされる。
ベストアンサンブル(SMOTE-combined)は74.8%の精度で、CNNは79.19%の完全テストセット、81.25%の予測バッチを達成し、ディープモデルの利点を確認する。
それにもかかわらず、最も表現力の低いクラス(Barge)は障害モードのままであり、リバランシングの限界を浮き彫りにする。
結果から,新たなマイノリティクラス収集とコスト感受性目標(例えば焦点損失)の優先順位付けと,解釈可能性と表現力の併用を目的としたハイブリッドアンサンブルやCNNパイプラインの探索が示唆された。
関連論文リスト
- R-Net: A Reliable and Resource-Efficient CNN for Colorectal Cancer Detection with XAI Integration [5.660024061097701]
最先端(SOTA)畳み込みニューラルネットワーク(CNN)は、その計算能力、長いトレーニング時間、大規模なデータセットについて批判されている。
この制限を克服するために,大腸癌(CRC)を検出・分類するための合理的ネットワーク(R-Net)を提案する。
提案されたR-Netは99.37%の精度を達成し、MobileNet(95.83%)とResNet50(96.94%)を上回った。
論文 参考訳(メタデータ) (2025-09-17T18:29:44Z) - Covariance-corrected Whitening Alleviates Network Degeneration on Imbalanced Classification [6.197116272789107]
クラス不均衡は画像分類において重要な問題であり、深層認識モデルの性能に大きな影響を及ぼす。
我々は、退化ソリューションを緩和するWhitening-Netと呼ばれる新しいフレームワークを提案する。
極端なクラス不均衡のシナリオでは、バッチ共分散統計は大きな変動を示し、白化操作の収束を妨げる。
論文 参考訳(メタデータ) (2024-08-30T10:49:33Z) - CLIP the Bias: How Useful is Balancing Data in Multimodal Learning? [72.19502317793133]
比較言語画像事前学習(CLIP)におけるバイアス軽減のためのデータバランスの有効性について検討する。
表現バイアスと相関バイアスの両方を低減するために,Multi-Modal Moment Matching (M4) と呼ばれる新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-03-07T14:43:17Z) - Noisy Correspondence Learning with Self-Reinforcing Errors Mitigation [63.180725016463974]
クロスモーダル検索は、実際は精力的な、十分に整合した大規模データセットに依存している。
我々は、新しい雑音対応学習フレームワーク、textbfSelf-textbfReinforcing textbfErrors textbfMitigation(SREM)を導入する。
論文 参考訳(メタデータ) (2023-12-27T09:03:43Z) - CoNe: Contrast Your Neighbours for Supervised Image Classification [62.12074282211957]
Contrast Your Neighbours (CoNe)は、教師付き画像分類のための学習フレームワークである。
CoNeは、より適応的で洗練されたターゲットを生成するために、類似した隣人の特徴をアンカーとして採用している。
私たちのCoNeは、最近のTimトレーニングレシピを上回るResNet-50で、ImageNetの80.8%のTop-1精度を実現しています。
論文 参考訳(メタデータ) (2023-08-21T14:49:37Z) - Effective Class-Imbalance learning based on SMOTE and Convolutional
Neural Networks [0.1074267520911262]
不均衡データ(ID)は、機械学習(ML)モデルから満足な結果を得るための問題である。
本稿では,Deep Neural Networks(DNN)とConvolutional Neural Networks(CNN)に基づく手法の有効性を検討する。
信頼性の高い結果を得るために,ランダムにシャッフルしたデータ分布を用いて100回実験を行った。
論文 参考訳(メタデータ) (2022-09-01T07:42:16Z) - VOLO: Vision Outlooker for Visual Recognition [148.12522298731807]
視覚変換器 (ViT) はイメージネット分類において自己注意に基づくモデルの可能性を示している。
我々は、新しい展望の展望を導入し、VoLO(Vision Outlooker)と呼ばれる、シンプルで一般的なアーキテクチャを提示する。
グローバルな依存性モデリングを粗いレベルで重視する自己注意とは異なり、展望はより詳細な機能やコンテキストをトークンに効率的にエンコードする。
実験の結果、私たちのVOLOはImageNet-1K分類で87.1%のトップ1の精度を達成しており、これはこの競合ベンチマークで87%以上の精度で最初のモデルである。
論文 参考訳(メタデータ) (2021-06-24T15:46:54Z) - Improving Calibration for Long-Tailed Recognition [68.32848696795519]
このようなシナリオにおけるキャリブレーションとパフォーマンスを改善する2つの方法を提案します。
異なるサンプルによるデータセットバイアスに対して,シフトバッチ正規化を提案する。
提案手法は,複数の長尾認識ベンチマークデータセットに新しいレコードをセットする。
論文 参考訳(メタデータ) (2021-04-01T13:55:21Z) - Adaptive Verifiable Training Using Pairwise Class Similarity [17.89932271240133]
検証可能なトレーニングは、特定のノイズに対して確実に堅牢なニューラルネットワークの作成に成功しています。
しかしながら、単一のロバスト性基準を強制するにも関わらず、そのパフォーマンスはデータセットの複雑さに乏しい。
クラス間の類似性を利用して検証可能なトレーニングのパフォーマンスを向上させる新しいアプローチを提案します。
論文 参考訳(メタデータ) (2020-12-14T19:10:30Z) - Diversity inducing Information Bottleneck in Model Ensembles [73.80615604822435]
本稿では,予測の多様性を奨励することで,ニューラルネットワークの効果的なアンサンブルを生成する問題をターゲットにする。
そこで本研究では,潜伏変数の学習における逆損失の多様性を明示的に最適化し,マルチモーダルデータのモデリングに必要な出力予測の多様性を得る。
最も競争力のあるベースラインと比較して、データ分布の変化の下で、分類精度が大幅に向上した。
論文 参考訳(メタデータ) (2020-03-10T03:10:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。