論文の概要: Building a Competitive Associative Classifier
- arxiv url: http://arxiv.org/abs/2007.01972v1
- Date: Sat, 4 Jul 2020 00:20:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-13 13:10:56.934568
- Title: Building a Competitive Associative Classifier
- Title(参考訳): 競合型連想分類器の構築
- Authors: Nitakshi Sood and Osmar Zaiane
- Abstract要約: 本稿では, ノイズ, 冗長性, 興味のないルールのほとんどを具現化した, 新規な2段階プルーニング戦略であるSigD2を提案する。
分類精度を損なうことなく、分類のための統計学的に重要なルールの最小セットを得ることができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the huge success of deep learning, other machine learning paradigms have
had to take back seat. Yet other models, particularly rule-based, are more
readable and explainable and can even be competitive when labelled data is not
abundant. However, most of the existing rule-based classifiers suffer from the
production of a large number of classification rules, affecting the model
readability. This hampers the classification accuracy as noisy rules might not
add any useful informationfor classification and also lead to longer
classification time. In this study, we propose SigD2 which uses a novel,
two-stage pruning strategy which prunes most of the noisy, redundant and
uninteresting rules and makes the classification model more accurate and
readable. To make SigDirect more competitive with the most prevalent but
uninterpretable machine learning-based classifiers like neural networks and
support vector machines, we propose bagging and boosting on the ensemble of the
SigDirect classifier. The results of the proposed algorithms are quite
promising and we are able to obtain a minimal set of statistically significant
rules for classification without jeopardizing the classification accuracy. We
use 15 UCI datasets and compare our approach with eight existing systems.The
SigD2 and boosted SigDirect (ACboost) ensemble model outperform various
state-of-the-art classifiers not only in terms of classification accuracy but
also in terms of the number of rules.
- Abstract(参考訳): ディープラーニングの大きな成功により、他の機械学習パラダイムも座を奪わざるを得なくなった。
しかし、他のモデル、特にルールベースは、より読みやすく説明しやすく、ラベル付きデータが豊富でない場合にも競争力がある。
しかし、既存のルールベースの分類器の多くは、モデル可読性に影響を与える多くの分類規則の作成に苦しむ。
これにより分類精度が低下し、ノイズの少ない規則では分類に有用な情報が得られず、分類時間が長くなる。
本研究では, ノイズ, 冗長, 面白くないルールの多くを具現化し, 分類モデルをより正確かつ読みやすくする, 新規な2段階プルーニング戦略を用いたSigD2を提案する。
ニューラルネットワークやサポートベクタマシンなどの機械学習ベースの分類器とSigDirectをより競争力のあるものにするために,SigDirect分類器のアンサンブルにバッジとブーストを提案する。
提案アルゴリズムの結果はかなり有望であり,分類精度を損なうことなく,統計的に有意な分類規則の最小セットを得ることができる。
SigD2と強化されたSigDirect(ACboost)アンサンブルモデルは、分類精度だけでなく、ルールの数の観点からも、様々な最先端の分類器よりも優れています。
関連論文リスト
- Just Leaf It: Accelerating Diffusion Classifiers with Hierarchical Class Pruning [8.209660505275872]
本稿では、データセット固有の階層的ラベル構造を利用する階層的拡散(HDC)を提案する。
HDCは、維持しながら最大60%の推論を加速し、場合によっては分類精度を向上させる。
我々の研究により、速度と精度のトレードオフの新しい制御機構が実現され、現実世界のアプリケーションでは拡散に基づく分類がより有効になる。
論文 参考訳(メタデータ) (2024-11-18T21:34:05Z) - Parametric Classification for Generalized Category Discovery: A Baseline
Study [70.73212959385387]
Generalized Category Discovery (GCD)は、ラベル付きサンプルから学習した知識を用いて、ラベルなしデータセットで新しいカテゴリを発見することを目的としている。
パラメトリック分類器の故障を調査し,高品質な監視が可能であった場合の過去の設計選択の有効性を検証し,信頼性の低い疑似ラベルを重要課題として同定する。
エントロピー正規化の利点を生かし、複数のGCDベンチマークにおける最先端性能を実現し、未知のクラス数に対して強いロバスト性を示す、単純で効果的なパラメトリック分類法を提案する。
論文 参考訳(メタデータ) (2022-11-21T18:47:11Z) - Prototypical Classifier for Robust Class-Imbalanced Learning [64.96088324684683]
埋め込みネットワークに付加的なパラメータを必要としないtextitPrototypealを提案する。
プロトタイプは、訓練セットがクラス不均衡であるにもかかわらず、すべてのクラスに対してバランスと同等の予測を生成する。
我々は, CIFAR-10LT, CIFAR-100LT, Webvision のデータセットを用いて, プロトタイプが芸術の状況と比較した場合, サブスタンスの改善が得られることを検証した。
論文 参考訳(メタデータ) (2021-10-22T01:55:01Z) - Multiple Classifiers Based Maximum Classifier Discrepancy for
Unsupervised Domain Adaptation [25.114533037440896]
本稿では、2つの分類器の構造を複数の分類器に拡張し、その性能をさらに向上することを提案する。
平均的に、3つの分類器の構造を採用すると、精度と効率のトレードオフとして最高の性能が得られることを示す。
論文 参考訳(メタデータ) (2021-08-02T03:00:13Z) - First Step Towards EXPLAINable DGA Multiclass Classification [0.6767885381740952]
マルウェアファミリーは、コマンドとコントロール(C2)サーバーへの接続を確立するためにドメイン生成アルゴリズム(DGA)に依存している。
本稿では,機能ベースでコンテキストレスなDGAマルチクラス分類器であるEXPLAINを提案する。
論文 参考訳(メタデータ) (2021-06-23T12:05:13Z) - No Fear of Heterogeneity: Classifier Calibration for Federated Learning
with Non-IID Data [78.69828864672978]
実世界のフェデレーションシステムにおける分類モデルのトレーニングにおける中心的な課題は、非IIDデータによる学習である。
このアルゴリズムは, 近似されたssian混合モデルからサンプリングした仮想表現を用いて分類器を調整する。
実験の結果,CIFAR-10,CIFAR-100,CINIC-10など,一般的なフェデレーション学習ベンチマークにおけるCCVRの現状が示された。
論文 参考訳(メタデータ) (2021-06-09T12:02:29Z) - Binary Classification from Multiple Unlabeled Datasets via Surrogate Set
Classification [94.55805516167369]
我々は m 個の U 集合を $mge2$ で二進分類する新しい手法を提案する。
我々のキーとなる考え方は、サロゲート集合分類(SSC)と呼ばれる補助的分類タスクを考えることである。
論文 参考訳(メタデータ) (2021-02-01T07:36:38Z) - Unbiased Subdata Selection for Fair Classification: A Unified Framework
and Scalable Algorithms [0.8376091455761261]
このフレームワーク内の多くの分類モデルが混合整数凸プログラムとして再キャストできることを示した。
そして,提案問題において,分類結果の「解決不能な部分データ選択」が強く解決可能であることを示す。
これにより、分類インスタンスを解決するための反復精錬戦略(IRS)の開発を動機付けます。
論文 参考訳(メタデータ) (2020-12-22T21:09:38Z) - Learning and Evaluating Representations for Deep One-class
Classification [59.095144932794646]
ディープワンクラス分類のための2段階フレームワークを提案する。
まず,一級データから自己教師付き表現を学習し,学習した表現に基づいて一級分類器を構築する。
実験では、視覚領域の1クラス分類ベンチマークで最先端の性能を示す。
論文 参考訳(メタデータ) (2020-11-04T23:33:41Z) - Making Use of NXt to Nothing: The Effect of Class Imbalances on DGA
Detection Classifiers [3.0969191504482243]
トレーニングセットに少数のサンプルしか知られていないDGAの含有が、分類器全体の性能に有益か有害かは不明である。
本稿では,各クラスごとの学習サンプルの高評価値を示す,コンテキストレスDGA分類器の包括的分析を行う。
論文 参考訳(メタデータ) (2020-07-01T07:51:12Z) - Fine-Grained Visual Classification with Efficient End-to-end
Localization [49.9887676289364]
本稿では,エンド・ツー・エンドの設定において,分類ネットワークと融合可能な効率的なローカライゼーションモジュールを提案する。
我々は,CUB200-2011,Stanford Cars,FGVC-Aircraftの3つのベンチマークデータセット上で,新しいモデルを評価する。
論文 参考訳(メタデータ) (2020-05-11T14:07:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。