論文の概要: Evaluation of Confidence-based Ensembling in Deep Learning Image
Classification
- arxiv url: http://arxiv.org/abs/2303.03185v1
- Date: Fri, 3 Mar 2023 16:29:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-07 15:47:56.840198
- Title: Evaluation of Confidence-based Ensembling in Deep Learning Image
Classification
- Title(参考訳): 深層学習画像分類における信頼度に基づく構成評価
- Authors: Rafael Rosales, Peter Popov, Michael Paulitsch
- Abstract要約: Conf-EnsembleはBoostingに適応して、モデルエラーではなくモデルの信頼性に基づいたアンサンブルを生成する。
我々は、イメージNetデータセットを用いて、画像分類のより複雑なタスクにおいて、Conf-Ensembleアプローチを評価する。
- 参考スコア(独自算出の注目度): 0.6445605125467573
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Ensembling is a successful technique to improve the performance of machine
learning (ML) models.
Conf-Ensemble is an adaptation to Boosting to create ensembles based on model
confidence instead of model errors to better classify difficult edge-cases. The
key idea is to create successive model experts for samples that were difficult
(not necessarily incorrectly classified) by the preceding model. This technique
has been shown to provide better results than boosting in binary-classification
with a small feature space (~80 features).
In this paper, we evaluate the Conf-Ensemble approach in the much more
complex task of image classification with the ImageNet dataset (224x224x3
features with 1000 classes). Image classification is an important benchmark for
AI-based perception and thus it helps to assess if this method can be used in
safety-critical applications using ML ensembles.
Our experiments indicate that in a complex multi-label classification task,
the expected benefit of specialization on complex input samples cannot be
achieved with a small sample set, i.e., a good classifier seems to rely on very
complex feature analysis that cannot be well trained on just a limited subset
of "difficult samples".
We propose an improvement to Conf-Ensemble to increase the number of samples
fed to successive ensemble members, and a three-member Conf-Ensemble using this
improvement was able to surpass a single model in accuracy, although the amount
is not significant. Our findings shed light on the limits of the approach and
the non-triviality of harnessing big data.
- Abstract(参考訳): ensemblingは、機械学習(ml)モデルのパフォーマンスを改善する手法として成功している。
Conf-EnsembleはBoostingに適応して、モデルのエラーではなくモデルの信頼性に基づいてアンサンブルを作成し、難しいエッジケースをよりよく分類する。
重要なアイデアは、前のモデルで難しい(必ずしも正しく分類されていない)サンプルの連続したモデル専門家を作ることである。
この技術は、小さな特徴空間(約80の機能)を持つバイナリ分類の強化よりも優れた結果をもたらすことが示されている。
本稿では、イメージNetデータセット(1000クラスの224x224x3特徴)を用いて、画像分類のより複雑なタスクにおけるConf-Ensembleアプローチを評価する。
画像分類はAIに基づく知覚にとって重要なベンチマークであり、この手法がMLアンサンブルを使用して安全クリティカルなアプリケーションで使用できるかどうかを評価するのに役立つ。
複雑なマルチラベル分類タスクでは、複雑な入力サンプルの特殊化の期待できる利点は、小さなサンプルセットでは達成できない、すなわち、優れた分類器は、"差分サンプル"の限られたサブセットではうまく訓練できない非常に複雑な特徴分析に依存しているように見える。
本研究では,一連のアンサンブルメンバーに供給されるサンプル数を増やすためのConf-Ensembleの改良を提案する。
当社の調査結果は、このアプローチの限界と、ビッグデータを活用する非自明さに光を当てた。
関連論文リスト
- Integrated Image-Text Based on Semi-supervised Learning for Small Sample Instance Segmentation [1.3157419797035321]
本稿では,既存情報の利用を最大化する観点から,新しいサンプルインスタンス分割法を提案する。
まず、ラベルのないデータを学習して擬似ラベルを生成し、利用可能なサンプルの数を増やすことで、モデルが完全に活用するのに役立つ。
第二に、テキストと画像の特徴を統合することにより、より正確な分類結果を得ることができる。
論文 参考訳(メタデータ) (2024-10-21T14:44:08Z) - Few-shot Image Classification based on Gradual Machine Learning [6.935034849731568]
少ないショット画像分類は、ラベル付きサンプルのみを使用してラベル付きイメージを正確に分類することを目的としている。
段階的機械学習(GML)の非i.dパラダイムに基づく新しいアプローチを提案する。
提案手法は精度でSOTAの性能を1-5%向上させることができることを示す。
論文 参考訳(メタデータ) (2023-07-28T12:30:41Z) - Rethinking Clustering-Based Pseudo-Labeling for Unsupervised
Meta-Learning [146.11600461034746]
教師なしメタラーニングのメソッドであるCACTUsは、擬似ラベル付きクラスタリングベースのアプローチである。
このアプローチはモデルに依存しないため、教師付きアルゴリズムと組み合わせてラベルのないデータから学習することができる。
このことの核となる理由は、埋め込み空間においてクラスタリングに優しい性質が欠如していることである。
論文 参考訳(メタデータ) (2022-09-27T19:04:36Z) - Beyond Simple Meta-Learning: Multi-Purpose Models for Multi-Domain,
Active and Continual Few-Shot Learning [41.07029317930986]
低ラベル方式で動作するモデルの分散感応クラスを提案する。
最初の手法であるSimple CNAPSは階層的に正規化されたマハラノビス距離に基づく分類器を用いる。
我々はさらに、このアプローチをトランスダクティブ学習環境に拡張し、トランスダクティブCNAPSを提案する。
論文 参考訳(メタデータ) (2022-01-13T18:59:02Z) - Sparse MoEs meet Efficient Ensembles [49.313497379189315]
このようなモデルの2つの一般的なクラス、すなわちニューラルネットワークのアンサンブルと専門家のスパースミックス(スパースMoE)の相互作用について研究する。
Efficient Ensemble of Experts (E$3$)は、両モデルのクラスを最大限に活用するスケーラブルでシンプルなMoEのアンサンブルであり、深いアンサンブルよりも最大45%少ないFLOPを使用する。
論文 参考訳(メタデータ) (2021-10-07T11:58:35Z) - Neighborhood Contrastive Learning for Novel Class Discovery [79.14767688903028]
我々は,クラスタリング性能に重要な識別表現を学習するために,Neighborhood Contrastive Learningという新しいフレームワークを構築した。
これらの2つの成分がクラスタリング性能に大きく寄与し、我々のモデルが最先端の手法よりも大きなマージンで優れていることを実験的に実証した。
論文 参考訳(メタデータ) (2021-06-20T17:34:55Z) - No Fear of Heterogeneity: Classifier Calibration for Federated Learning
with Non-IID Data [78.69828864672978]
実世界のフェデレーションシステムにおける分類モデルのトレーニングにおける中心的な課題は、非IIDデータによる学習である。
このアルゴリズムは, 近似されたssian混合モデルからサンプリングした仮想表現を用いて分類器を調整する。
実験の結果,CIFAR-10,CIFAR-100,CINIC-10など,一般的なフェデレーション学習ベンチマークにおけるCCVRの現状が示された。
論文 参考訳(メタデータ) (2021-06-09T12:02:29Z) - Exploring Complementary Strengths of Invariant and Equivariant
Representations for Few-Shot Learning [96.75889543560497]
多くの現実世界では、多数のラベル付きサンプルの収集は不可能です。
少ないショット学習はこの問題に対処するための主要なアプローチであり、目的は限られた数のサンプルの存在下で新しいカテゴリに迅速に適応することです。
幾何学的変換の一般集合に対する等分散と不変性を同時に強制する新しい訓練機構を提案する。
論文 参考訳(メタデータ) (2021-03-01T21:14:33Z) - One-Shot Object Detection without Fine-Tuning [62.39210447209698]
本稿では,第1ステージのMatching-FCOSネットワークと第2ステージのStructure-Aware Relation Moduleからなる2段階モデルを提案する。
また,検出性能を効果的に向上する新たなトレーニング戦略を提案する。
提案手法は,複数のデータセット上で一貫した最先端のワンショット性能を上回る。
論文 参考訳(メタデータ) (2020-05-08T01:59:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。