論文の概要: Few-shot Classification via Ensemble Learning with Multi-Order
Statistics
- arxiv url: http://arxiv.org/abs/2305.00454v1
- Date: Sun, 30 Apr 2023 11:41:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-02 15:05:49.654276
- Title: Few-shot Classification via Ensemble Learning with Multi-Order
Statistics
- Title(参考訳): 多階統計を用いたアンサンブル学習による少数ショット分類
- Authors: Sai Yang, Fan Liu, Delong Chen, Jun Zhou
- Abstract要約: 基本クラスにおけるアンサンブル学習を活用することで,新たなクラスにおける真の誤りを低減できることを示す。
本稿では,多階統計を用いたアンサンブル学習法(ELMOS)を提案する。
提案手法は,複数ショットの分類ベンチマークデータセット上で,最先端の性能を実現することができることを示す。
- 参考スコア(独自算出の注目度): 9.145742362513932
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Transfer learning has been widely adopted for few-shot classification. Recent
studies reveal that obtaining good generalization representation of images on
novel classes is the key to improving the few-shot classification accuracy. To
address this need, we prove theoretically that leveraging ensemble learning on
the base classes can correspondingly reduce the true error in the novel
classes. Following this principle, a novel method named Ensemble Learning with
Multi-Order Statistics (ELMOS) is proposed in this paper. In this method, after
the backbone network, we use multiple branches to create the individual
learners in the ensemble learning, with the goal to reduce the storage cost. We
then introduce different order statistics pooling in each branch to increase
the diversity of the individual learners. The learners are optimized with
supervised losses during the pre-training phase. After pre-training, features
from different branches are concatenated for classifier evaluation. Extensive
experiments demonstrate that each branch can complement the others and our
method can produce a state-of-the-art performance on multiple few-shot
classification benchmark datasets.
- Abstract(参考訳): 移行学習は、数発の分類で広く採用されている。
近年の研究では,新しいクラスにおける画像の良質な一般化表現を得ることが,マイナショット分類精度の向上の鍵となっている。
このニーズに対処するために、基礎クラスでアンサンブル学習を利用することで、新しいクラスの真のエラーを対応するように低減できることを理論的に証明する。
この原理に従い,多階統計(elmos)を用いたアンサンブル学習という新しい手法が提案されている。
本手法では,バックボーンネットワークの後,複数の分岐を用いてアンサンブル学習における個々の学習者を作成し,ストレージコストの低減を目標とする。
次に,個々の学習者の多様性を高めるために,各ブランチに異なる順序統計プールを導入する。
学習者は、事前学習フェーズ中に教師付き損失で最適化される。
事前学習後、異なるブランチの特徴を分類器評価のために結合する。
広範な実験により、各ブランチが他のブランチを補完できることが示され、この手法は、複数の数ショットの分類ベンチマークデータセット上で最先端のパフォーマンスを生み出すことができる。
関連論文リスト
- Achieving More with Less: A Tensor-Optimization-Powered Ensemble Method [53.170053108447455]
アンサンブル学習(英: Ensemble learning)は、弱い学習者を利用して強力な学習者を生み出す方法である。
我々は、マージンの概念を活かした滑らかで凸な目的関数を設計し、強力な学習者がより差別的になるようにした。
そして、我々のアルゴリズムを、多数のデータセットの10倍の大きさのランダムな森林や他の古典的な手法と比較する。
論文 参考訳(メタデータ) (2024-08-06T03:42:38Z) - Low-Cost Self-Ensembles Based on Multi-Branch Transformation and Grouped Convolution [20.103367702014474]
本稿では,高い効率と分類性能を実現するために,低コストなアンサンブル学習を提案する。
学習には,教師の信号として出力のアンサンブルを用いた知識蒸留を用いる。
実験結果から,本手法は最先端の分類精度と精度の高い不確実性推定性能を実現することが示された。
論文 参考訳(メタデータ) (2024-08-05T08:36:13Z) - Generalization Bounds for Few-Shot Transfer Learning with Pretrained
Classifiers [26.844410679685424]
本研究では,新しいクラスに移動可能な分類の表現を基礎モデルで学習する能力について検討する。
クラス-機能-変数の崩壊の場合,新しいクラスで学習した特徴マップのわずかな誤差が小さいことを示す。
論文 参考訳(メタデータ) (2022-12-23T18:46:05Z) - A Cross-Conformal Predictor for Multi-label Classification [0.0]
マルチラベル学習では、各インスタンスは同時に複数のクラスに関連付けられている。
本研究は,マルチラベル学習環境におけるコンフォーマル予測(Conformal Prediction)というフレームワークの適用について検討する。
論文 参考訳(メタデータ) (2022-11-29T14:21:49Z) - Class-Incremental Learning with Strong Pre-trained Models [97.84755144148535]
CIL(Class-incremental Learning)は、少数のクラス(ベースクラス)から始まる設定で広く研究されている。
我々は、多数のベースクラスで事前訓練された強力なモデルから始まるCILの実証済み実世界の設定について検討する。
提案手法は、解析されたCIL設定すべてに頑健で一般化されている。
論文 参考訳(メタデータ) (2022-04-07T17:58:07Z) - Evolving Multi-Label Fuzzy Classifier [5.53329677986653]
マルチラベル分類は、同時に複数のクラスに1つのサンプルを割り当てるという問題に対処するために、機械学習コミュニティで多くの注目を集めている。
本稿では,新たなマルチラベルサンプルをインクリメンタルかつシングルパスで自己適応・自己展開可能な多ラベルファジィ分類器(EFC-ML)を提案する。
論文 参考訳(メタデータ) (2022-03-29T08:01:03Z) - Multi-Class Classification from Single-Class Data with Confidences [90.48669386745361]
本稿では,損失/モデル/最適化非依存のリスク最小化フレームワークを提案する。
提案手法は, 与えられた信頼度が高ノイズであっても, 簡易な修正でベイズ整合性を示す。
論文 参考訳(メタデータ) (2021-06-16T15:38:13Z) - Shot in the Dark: Few-Shot Learning with No Base-Class Labels [32.96824710484196]
市販の自己教師型学習は,MiniImageNet上での5ショット精度において,トランスダクティブな数ショット法を3.9%向上させることを示した。
このことは、数発の学習において、自己監督を通じて学んだ機能の役割をより慎重に調べる動機となります。
論文 参考訳(メタデータ) (2020-10-06T02:05:27Z) - Learning by Minimizing the Sum of Ranked Range [58.24935359348289]
本稿では,学習目標を定式化するための一般的なアプローチとして,ランキング範囲(SoRR)の和を紹介した。
ランク付き範囲は、実数の集合のソートされた値の連続的なシーケンスである。
我々は,SoRRフレームワークの最小化のための機械学習における2つの応用,すなわち,バイナリ分類のためのAoRR集約損失とマルチラベル/マルチクラス分類のためのTKML個人損失について検討する。
論文 参考訳(メタデータ) (2020-10-05T01:58:32Z) - Fast Few-Shot Classification by Few-Iteration Meta-Learning [173.32497326674775]
数ショット分類のための高速な最適化に基づくメタラーニング手法を提案する。
我々の戦略はメタ学習において学習すべき基礎学習者の目的の重要な側面を可能にする。
我々は、我々のアプローチの速度と効果を実証し、総合的な実験分析を行う。
論文 参考訳(メタデータ) (2020-10-01T15:59:31Z) - Few-Shot Learning with Intra-Class Knowledge Transfer [100.87659529592223]
アンバランスなデータセットを用いた数発の分類タスクについて検討する。
近年の研究では、生成モデルを用いて数発の授業のトレーニングデータを増やすことで、この課題を解決することが提案されている。
本稿では,近隣クラスが類似した統計情報を共有するという直感で,近隣クラスからのクラス内知識を活用することを提案する。
論文 参考訳(メタデータ) (2020-08-22T18:15:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。