論文の概要: Classy Ensemble: A Novel Ensemble Algorithm for Classification
- arxiv url: http://arxiv.org/abs/2302.10580v4
- Date: Thu, 11 Jan 2024 06:34:40 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-13 04:18:39.641349
- Title: Classy Ensemble: A Novel Ensemble Algorithm for Classification
- Title(参考訳): Classy Ensemble: 分類のための新しいEnsembleアルゴリズム
- Authors: Moshe Sipper
- Abstract要約: 分類タスクのための新しいアンサンブル生成アルゴリズムであるClassy Ensembleを提案する。
そこで我々は,Classy Ensembleが他の2つのよく知られた集約アルゴリズムより優れていることを示す。
1) クラス・アンサンブルとクラスタ・ベース・プルーニングを組み合わせたクラス・クラスタ・アンサンブル,2) 4つの画像データセットに対するクラス・アンサンブルのメリットを示すディープラーニング実験。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present Classy Ensemble, a novel ensemble-generation algorithm for
classification tasks, which aggregates models through a weighted combination of
per-class accuracy. Tested over 153 machine learning datasets we demonstrate
that Classy Ensemble outperforms two other well-known aggregation algorithms --
order-based pruning and clustering-based pruning -- as well as the recently
introduced lexigarden ensemble generator. We then present three enhancements:
1) Classy Cluster Ensemble, which combines Classy Ensemble and cluster-based
pruning; 2) Deep Learning experiments, showing the merits of Classy Ensemble
over four image datasets: Fashion MNIST, CIFAR10, CIFAR100, and ImageNet; and
3) Classy Evolutionary Ensemble, wherein an evolutionary algorithm is used to
select the set of models which Classy Ensemble picks from. This latter,
combining learning and evolution, resulted in improved performance on the
hardest dataset.
- Abstract(参考訳): 本稿では,クラス毎の精度の重み付けによってモデルを集約する,分類タスクのための新しいアンサンブル生成アルゴリズムであるClassy Ensembleを提案する。
153以上の機械学習データセットをテストすると、Classy Ensembleは、注文ベースのプルーニングとクラスタリングベースのプルーニングという、他のよく知られたアグリゲーションアルゴリズムと、最近導入されたレキシガーデンアンサンブルジェネレータよりも優れています。
次に3つの改善点を紹介します
1) Classy Ensemble と Cluster-based pruning を組み合わせた Classy Cluster Ensemble
2) Fashion MNIST, CIFAR10, CIFAR100, ImageNetの4つの画像データセットに対するクラスアンサンブルの利点を示すディープラーニング実験。
3) 進化的アンサンブル(Classy Evolutionary Ensemble)は、進化的アルゴリズムを用いて、クラスアンサンブルが選択したモデルのセットを選択する。
学習と進化を組み合わせることで、最も難しいデータセットのパフォーマンスが向上した。
関連論文リスト
- Rethinking cluster-conditioned diffusion models [1.597617022056624]
画像クラスタリングに関する個々のコンポーネントが3つのデータセット間の画像合成にどのように影響するかを明らかにする。
画像合成(視覚群)に関して最適なクラスタの粒度を考えると,クラスタコンディショニングは最先端のFIDを実現することができる。
本稿では,特徴に基づくクラスタリングのみを用いて,視覚群の探索空間を小さくする上層クラスタ境界を導出する手法を提案する。
論文 参考訳(メタデータ) (2024-03-01T14:47:46Z) - Anomaly Detection using Ensemble Classification and Evidence Theory [62.997667081978825]
本稿では,アンサンブル分類とエビデンス理論を用いた新しい検出手法を提案する。
固体アンサンブル分類器を構築するためのプール選択戦略が提示される。
我々は異常検出手法の不確実性を利用する。
論文 参考訳(メタデータ) (2022-12-23T00:50:41Z) - Class-incremental Novel Class Discovery [76.35226130521758]
クラス増進型新規クラス発見(class-iNCD)の課題について検討する。
基本クラスに関する過去の情報を忘れないようにする,クラスiNCDのための新しい手法を提案する。
3つの共通ベンチマークで実施した実験により,本手法が最先端の手法を著しく上回ることを示した。
論文 参考訳(メタデータ) (2022-07-18T13:49:27Z) - Ensemble Classifier Design Tuned to Dataset Characteristics for Network
Intrusion Detection [0.0]
データセットのクラスオーバーラップ問題に対処する2つの新しいアルゴリズムが提案されている。
提案手法は二進分類と多進分類の両方で評価される。
論文 参考訳(メタデータ) (2022-05-08T21:06:42Z) - Noise-Resilient Ensemble Learning using Evidence Accumulation Clustering [1.7188280334580195]
アンサンブル学習法は、同じタスクを実行する複数のアルゴリズムを組み合わせて、優れた品質のグループを構築する。
これらのシステムは、ネットワークの各ピアまたはマシンが1つのアルゴリズムをホストし、その結果をそのピアに伝達する分散セットアップによく適合する。
しかし、ネットワークは破損し、アンサンブルの品質に有害な影響を及ぼすピアの予測精度が変化する。
雑音耐性アンサンブル分類法を提案し,精度の向上と乱数誤差の補正を支援する。
論文 参考訳(メタデータ) (2021-10-18T11:52:45Z) - Neighborhood Contrastive Learning for Novel Class Discovery [79.14767688903028]
我々は,クラスタリング性能に重要な識別表現を学習するために,Neighborhood Contrastive Learningという新しいフレームワークを構築した。
これらの2つの成分がクラスタリング性能に大きく寄与し、我々のモデルが最先端の手法よりも大きなマージンで優れていることを実験的に実証した。
論文 参考訳(メタデータ) (2021-06-20T17:34:55Z) - Relearning ensemble selection based on new generated features [0.0]
提案手法は,3つのベンチマークデータセットと1つの合成データセットを用いて,最先端のアンサンブル手法と比較した。
提案手法の評価には4つの分類性能指標を用いる。
論文 参考訳(メタデータ) (2021-06-12T12:45:32Z) - Graph Contrastive Clustering [131.67881457114316]
本稿では,クラスタリングタスクに適用可能な新しいグラフコントラスト学習フレームワークを提案し,gcc(graph constrastive clustering)法を考案した。
特に、グラフラプラシアンに基づくコントラスト損失は、より識別的かつクラスタリングフレンドリーな特徴を学ぶために提案されている。
一方で、よりコンパクトなクラスタリング割り当てを学ぶために、グラフベースのコントラスト学習戦略が提案されている。
論文 参考訳(メタデータ) (2021-04-03T15:32:49Z) - Active Hybrid Classification [79.02441914023811]
本論文では,クラスタとマシンが分類問題にどう対応できるかを示す。
本稿では,活発な学習と群集分類を編成し,それらを活発なサイクルで組み合わせるアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-01-21T21:09:07Z) - Open-Set Recognition with Gaussian Mixture Variational Autoencoders [91.3247063132127]
推論において、オープンセット分類は、サンプルをトレーニングから既知のクラスに分類するか、未知のクラスとして拒絶するかのどちらかである。
我々は,協調的に再構築を学習し,潜在空間におけるクラスベースのクラスタリングを行うよう,我々のモデルを訓練する。
我々のモデルは、より正確で堅牢なオープンセット分類結果を実現し、平均的なF1改善率は29.5%である。
論文 参考訳(メタデータ) (2020-06-03T01:15:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。