論文の概要: Evolutionary bagged ensemble learning
- arxiv url: http://arxiv.org/abs/2208.02400v1
- Date: Thu, 4 Aug 2022 01:52:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-05 12:04:47.878118
- Title: Evolutionary bagged ensemble learning
- Title(参考訳): 進化的バッジアンサンブル学習
- Authors: Giang Ngo, Rodney Beard, Rohitash Chandra
- Abstract要約: Baggingは、個々の機械学習メソッドによってトレーニングされた、バッグとして知られるデータのサブグループを生成する、注目すべきアンサンブル学習手法である。
本稿では,進化的階層型アンサンブル学習を提案する。そこでは,進化的アルゴリズムを用いてバッグの内容を進化させる。
- 参考スコア(独自算出の注目度): 0.3670422696827526
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Ensemble learning has gained success in machine learning with major
advantages over other learning methods. Bagging is a prominent ensemble
learning method that creates subgroups of data, known as bags, that are trained
by individual machine learning methods such as decision trees. Random forest is
a prominent example of bagging with additional features in the learning
process. \textcolor{black}{A limitation of bagging is high bias (model
under-fitting) in the aggregated prediction when the individual learners have
high biases.} Evolutionary algorithms have been prominent for optimisation
problems and also been used for machine learning. Evolutionary algorithms are
gradient-free methods with a population of candidate solutions that maintain
diversity for creating new solutions. In conventional bagged ensemble learning,
the bags are created once and the content, in terms of the training examples,
is fixed over the learning process. In our paper, we propose evolutionary
bagged ensemble learning, where we utilise evolutionary algorithms to evolve
the content of the bags in order to enhance the ensemble by providing diversity
in the bags iteratively. The results show that our evolutionary ensemble
bagging method outperforms conventional ensemble methods (bagging and random
forests) for several benchmark datasets under certain constraints. Evolutionary
bagging can inherently sustain a diverse set of bags without sacrificing any
data.
- Abstract(参考訳): アンサンブル学習は機械学習で成功し、他の学習方法よりも大きな利点がある。
バッグング(bagging)は、決定木のような個々の機械学習方法によって訓練される、袋と呼ばれるデータのサブグループを作成する、著名なアンサンブル学習方法である。
ランダムフォレスト(random forest)は、学習プロセスに追加機能を備えた袋詰めの顕著な例である。
テキストカラー{black}{A の制限は、個々の学習者が高いバイアスを持つ場合の集約予測において高いバイアス(モデルアンダーフィット)である。
進化的アルゴリズムは最適化問題で顕著であり、機械学習にも使われている。
進化的アルゴリズムは、新しい解を作成するために多様性を維持する候補解の集団を持つ勾配のない方法である。
従来のバッジアンサンブル学習では、バッグは一度作成され、トレーニング例の観点からは、学習プロセス上でコンテンツが固定される。
本稿では,進化的アンサンブル学習を提案し,進化的アルゴリズムを用いてバッグの内容を進化させ,バッグの多様性を反復的に提供することによってアンサンブルの強化を図る。
その結果,本手法は,いくつかのベンチマークデータセットにおいて,一定の制約下で従来のアンサンブル手法(バッキングとランダムフォレスト)よりも優れていることがわかった。
進化的袋は、本質的にデータを犠牲にすることなく、多様な袋のセットを維持できる。
関連論文リスト
- Achieving More with Less: A Tensor-Optimization-Powered Ensemble Method [53.170053108447455]
アンサンブル学習(英: Ensemble learning)は、弱い学習者を利用して強力な学習者を生み出す方法である。
我々は、マージンの概念を活かした滑らかで凸な目的関数を設計し、強力な学習者がより差別的になるようにした。
そして、我々のアルゴリズムを、多数のデータセットの10倍の大きさのランダムな森林や他の古典的な手法と比較する。
論文 参考訳(メタデータ) (2024-08-06T03:42:38Z) - Continual Learning in Open-vocabulary Classification with Complementary Memory Systems [19.337633598158778]
オープン語彙画像分類におけるフレキシブルで効率的な連続学習法を提案する。
サンプルのクラスが模範クラス内にあるというゼロショット推定確率を用いて、CLIPゼロショットモデルと模範モデルからの予測を組み合わせる。
また,遅延学習の原則を適応した"ツリープローブ"手法を提案し,競合精度の高い新しい例からバッチ学習線形モデルへの高速学習を実現する。
論文 参考訳(メタデータ) (2023-07-04T01:47:34Z) - NEVIS'22: A Stream of 100 Tasks Sampled from 30 Years of Computer Vision
Research [96.53307645791179]
我々は,100以上の視覚的分類タスクのストリームからなるベンチマークであるNever-Ending VIsual-classification Stream (NEVIS'22)を紹介する。
分類に制限されているにもかかわらず、OCR、テクスチャ分析、シーン認識など、様々なタスクが生成される。
NEVIS'22は、タスクの規模と多様性のために、現在のシーケンシャルな学習アプローチに対して前例のない課題を提起している。
論文 参考訳(メタデータ) (2022-11-15T18:57:46Z) - Improving Feature Generalizability with Multitask Learning in Class
Incremental Learning [12.632121107536843]
キーワードスポッティングのような多くのディープラーニングアプリケーションは、クラスインクリメンタルラーニング(CIL)と呼ばれる新しい概念(クラス)を時間とともに組み込む必要がある。
CILの最大の課題は、破滅的な忘れ、すなわち、新しいタスクを学習しながら可能な限り多くの古い知識を保存することである。
本稿では,基本モデルトレーニング中のマルチタスク学習による特徴一般化性の向上を提案する。
提案手法は,平均漸進的学習精度を最大5.5%向上させ,時間とともにより信頼性が高く正確なキーワードスポッティングを可能にする。
論文 参考訳(メタデータ) (2022-04-26T07:47:54Z) - BatchFormer: Learning to Explore Sample Relationships for Robust
Representation Learning [93.38239238988719]
本稿では,各ミニバッチからサンプル関係を学習可能なディープニューラルネットワークを提案する。
BatchFormerは各ミニバッチのバッチ次元に適用され、トレーニング中のサンプル関係を暗黙的に探索する。
我々は10以上のデータセットに対して広範な実験を行い、提案手法は異なるデータ不足アプリケーションにおいて大幅な改善を実現する。
論文 参考訳(メタデータ) (2022-03-03T05:31:33Z) - Genetic Programming for Manifold Learning: Preserving Local Topology [5.226724669049025]
本稿では,局所的なトポロジを保存する多様体学習に遺伝的プログラミングを用いる新しい手法を提案する。
これは,地域構造(トポロジー)が最重要課題であるタスクにおいて,大幅な性能向上が期待できる。
論文 参考訳(メタデータ) (2021-08-23T03:48:48Z) - Friendly Training: Neural Networks Can Adapt Data To Make Learning
Easier [23.886422706697882]
フレンドリートレーニング(Friendly Training)と呼ばれる新しいトレーニング手順を提案する。
フレンドリートレーニングは、情報サブ選択とランダム選択に関して改善をもたらすことを示す。
その結果,入力データへの適応は学習を安定させ,ネットワークのスキル一般化を改善するための有効な方法であることが示唆された。
論文 参考訳(メタデータ) (2021-06-21T10:50:34Z) - MetaKernel: Learning Variational Random Features with Limited Labels [120.90737681252594]
少数の注釈付きサンプルから学習し、新しいタスクでうまく一般化できるという根本的かつ困難な問題に、少数のショットラーニングが対処します。
マルチショット学習のためのランダムなフーリエ機能を備えたメタラーニングカーネルをMeta Kernelと呼びます。
論文 参考訳(メタデータ) (2021-05-08T21:24:09Z) - Curriculum Learning: A Survey [65.31516318260759]
カリキュラム学習戦略は、機械学習のあらゆる分野で成功している。
我々は,様々な分類基準を考慮して,カリキュラム学習アプローチの分類を手作業で構築する。
集約型クラスタリングアルゴリズムを用いて,カリキュラム学習手法の階層木を構築する。
論文 参考訳(メタデータ) (2021-01-25T20:08:32Z) - Towards Improved and Interpretable Deep Metric Learning via Attentive
Grouping [103.71992720794421]
グループ化は、様々な特徴の計算にディープ・メトリック・ラーニングでよく用いられてきた。
本稿では,任意のメトリクス学習フレームワークと柔軟に統合可能な,改良された解釈可能なグループ化手法を提案する。
論文 参考訳(メタデータ) (2020-11-17T19:08:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。