論文の概要: QCBA: Improving Rule Classifiers Learned from Quantitative Data by
Recovering Information Lost by Discretisation
- arxiv url: http://arxiv.org/abs/1711.10166v3
- Date: Fri, 2 Jun 2023 13:31:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-05 23:26:59.891495
- Title: QCBA: Improving Rule Classifiers Learned from Quantitative Data by
Recovering Information Lost by Discretisation
- Title(参考訳): QCBA:離散化による情報損失の回復による量的データから学習したルール分類器の改善
- Authors: Tomas Kliegr, Ebroul Izquierdo
- Abstract要約: 本稿では、離散化における損失情報を復元することを目的とした新しいルールチューニング手順と新しいプルーニング手法について述べる。
提案したQCBA法は,アソシエーション(CBA)アルゴリズムに基づく分類によって生成されたモデルの定量的属性を後処理するために開発された。
UCIリポジトリの22のデータセットのベンチマークでは、FOIL2+QCBAの7つのベースラインと比較して、サイズが小さく、全体的な最高の予測性能を示している。
- 参考スコア(独自算出の注目度): 5.667821885065119
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A prediscretisation of numerical attributes which is required by some rule
learning algorithms is a source of inefficiencies. This paper describes new
rule tuning steps that aim to recover lost information in the discretisation
and new pruning techniques that may further reduce the size of rule models and
improve their accuracy. The proposed QCBA method was initially developed to
postprocess quantitative attributes in models generated by the Classification
based on associations (CBA) algorithm, but it can also be applied to the
results of other rule learning approaches. We demonstrate the effectiveness on
the postprocessing of models generated by five association rule classification
algorithms (CBA, CMAR, CPAR, IDS, SBRL) and two first-order logic rule learners
(FOIL2 and PRM). Benchmarks on 22 datasets from the UCI repository show smaller
size and the overall best predictive performance for FOIL2+QCBA compared to all
seven baselines. Postoptimised CBA models have a better predictive performance
compared to the state-of-the-art rule learner CORELS in this benchmark. The
article contains an ablation study for the individual postprocessing steps and
a scalability analysis on the KDD'99 Anomaly detection dataset.
- Abstract(参考訳): いくつかのルール学習アルゴリズムが必要とする数値属性の事前離散化は非効率の源である。
本稿では,離散化における失われた情報を復元することを目的とした新たなルールチューニングステップと,ルールモデルのサイズを更に削減し,精度を向上させる新たなプルーニング手法について述べる。
提案するqcba法は,cbaアルゴリズムに基づく分類によって生成されたモデルの定量的属性を後処理するために開発されたが,他のルール学習手法の結果にも適用できる。
本稿では,5つの関連ルール分類アルゴリズム (cba, cmar, cpar, ids, sbrl) と2つの一階論理ルール学習者 (foil2, prm) による後処理の有効性を示す。
UCIリポジトリの22のデータセットのベンチマークでは、FOIL2+QCBAの7つのベースラインと比較して、サイズが小さく、全体的な最高の予測性能を示している。
最適化後のCBAモデルは、このベンチマークの最先端ルール学習者CORELSよりも優れた予測性能を有する。
この記事では、個々の後処理ステップに関するアブレーション研究と、KDD'99 Anomaly Detectionデータセットのスケーラビリティ分析について述べる。
関連論文リスト
- Rule-based Data Selection for Large Language Models [9.886837013587124]
トレーニングデータの質は、大規模言語モデル(LLM)の性能に大きく影響する。
複数の人為的指標(ルール)に基づいてデータを評価・選択するためにLLMを用いた研究が増えている。
従来のルールベースのアプローチは、しばしば人間のベクトルに強く依存し、ルールを評価するための効果的な指標が欠如し、新しいタスクへの適応性が制限されている。
論文 参考訳(メタデータ) (2024-10-07T03:13:06Z) - Monte Carlo Tree Search Boosts Reasoning via Iterative Preference Learning [55.96599486604344]
本稿では,Large Language Models (LLMs) の推論能力向上を目的とした,反復的な選好学習プロセスによるアプローチを提案する。
我々は、MCTS(Monte Carlo Tree Search)を用いて好みデータを反復的に収集し、そのルックアヘッド機能を利用して、インスタンスレベルの報酬をよりきめ細かいステップレベルの信号に分解する。
提案アルゴリズムはDPO(Direct Preference Optimization)を用いて,新たに生成されたステップレベルの優先度データを用いてLCMポリシーを更新する。
論文 参考訳(メタデータ) (2024-05-01T11:10:24Z) - Evaluating Generative Language Models in Information Extraction as Subjective Question Correction [49.729908337372436]
本稿では,新しい評価手法SQC-Scoreを提案する。
主観的質問訂正の原則に着想を得て,新しい評価手法SQC-Scoreを提案する。
3つの情報抽出タスクの結果から,SQC-Scoreは基準値よりもアノテータの方が好ましいことが示された。
論文 参考訳(メタデータ) (2024-04-04T15:36:53Z) - A Hard-to-Beat Baseline for Training-free CLIP-based Adaptation [121.0693322732454]
対照的に、CLIP(Contrastive Language- Image Pretraining)はその目覚ましいゼロショット能力で人気を集めている。
近年の研究では、下流タスクにおけるCLIPの性能を高めるための効率的な微調整手法の開発に焦点が当てられている。
従来のアルゴリズムであるガウス判別分析(GDA)を再検討し,CLIPの下流分類に適用する。
論文 参考訳(メタデータ) (2024-02-06T15:45:27Z) - Sparse Attention-Based Neural Networks for Code Classification [15.296053323327312]
コード分類のためのスパース注意型ニューラルネットワーク(SACC)を提案する。
最初のステップでは、ソースコードは構文解析と前処理を行う。
サブツリーの符号化されたシーケンスは、分類のためにスパースアテンション機構を組み込んだTransformerモデルに入力される。
論文 参考訳(メタデータ) (2023-11-11T14:07:12Z) - Self-Supervised Class Incremental Learning [51.62542103481908]
既存のクラスインクリメンタルラーニング(CIL)手法は、データラベルに敏感な教師付き分類フレームワークに基づいている。
新しいクラスデータに基づいて更新する場合、それらは破滅的な忘れがちである。
本稿では,SSCILにおける自己指導型表現学習のパフォーマンスを初めて考察する。
論文 参考訳(メタデータ) (2021-11-18T06:58:19Z) - Few-Shot Incremental Learning with Continually Evolved Classifiers [46.278573301326276]
Few-shot Class-Incremental Learning(FSCIL)は、いくつかのデータポイントから新しい概念を継続的に学習できる機械学習アルゴリズムの設計を目指している。
難点は、新しいクラスからの限られたデータが、重大な過度な問題を引き起こすだけでなく、破滅的な忘れの問題も悪化させることにある。
我々は,適応のための分類器間のコンテキスト情報を伝達するグラフモデルを用いた連続進化型cif(cec)を提案する。
論文 参考訳(メタデータ) (2021-04-07T10:54:51Z) - Probabilistic Case-based Reasoning for Open-World Knowledge Graph
Completion [59.549664231655726]
ケースベース推論(CBR)システムは,与えられた問題に類似した事例を検索することで,新たな問題を解決する。
本稿では,知識ベース(KB)の推論において,そのようなシステムが実現可能であることを示す。
提案手法は,KB内の類似エンティティからの推論パスを収集することにより,エンティティの属性を予測する。
論文 参考訳(メタデータ) (2020-10-07T17:48:12Z) - Fast OSCAR and OWL Regression via Safe Screening Rules [97.28167655721766]
順序付き$L_1$ (OWL)正規化回帰は、高次元スパース学習のための新しい回帰分析である。
近勾配法はOWL回帰を解くための標準手法として用いられる。
未知の順序構造を持つ原始解の順序を探索することにより、OWL回帰の最初の安全なスクリーニングルールを提案する。
論文 参考訳(メタデータ) (2020-06-29T23:35:53Z) - Fase-AL -- Adaptation of Fast Adaptive Stacking of Ensembles for
Supporting Active Learning [0.0]
本研究は,Active Learning を用いて非ラベルのインスタンスで分類モデルを誘導する FASE-AL アルゴリズムを提案する。
このアルゴリズムは、正しく分類されたインスタンスの割合で有望な結果を得る。
論文 参考訳(メタデータ) (2020-01-30T17:25:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。