論文の概要: Interpretable classifiers for tabular data via discretization and
feature selection
- arxiv url: http://arxiv.org/abs/2402.05680v1
- Date: Thu, 8 Feb 2024 13:58:16 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-09 14:54:37.079968
- Title: Interpretable classifiers for tabular data via discretization and
feature selection
- Title(参考訳): 離散化と特徴選択による表データ解釈可能な分類器
- Authors: Reijo Jaakkola, Tomi Janhunen, Antti Kuusisto, Masood Feyzbakhsh
Rankooh, Miikka Vilander
- Abstract要約: 表データから人間の解釈可能かつ正確な分類器を即座に計算する手法を提案する。
提案手法は14の実験により実証され,ランダム林,XGBoost,および文献における同じデータセットに対する既存の結果と主に類似したアキュラシーによる結果が得られた。
- 参考スコア(独自算出の注目度): 4.445953630612019
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce a method for computing immediately human interpretable yet
accurate classifiers from tabular data. The classifiers obtained are short
DNF-formulas, computed via first discretizing the original data to Boolean form
and then using feature selection coupled with a very fast algorithm for
producing the best possible Boolean classifier for the setting. We demonstrate
the approach via 14 experiments, obtaining results with accuracies mainly
similar to ones obtained via random forests, XGBoost, and existing results for
the same datasets in the literature. In several cases, our approach in fact
outperforms the reference results in relation to accuracy, even though the main
objective of our study is the immediate interpretability of our classifiers. We
also prove a new result on the probability that the classifier we obtain from
real-life data corresponds to the ideally best classifier with respect to the
background distribution the data comes from.
- Abstract(参考訳): 表データから人間の解釈可能かつ正確な分類器を即座に計算する手法を提案する。
得られた分類器は短いdnf形式であり、まず元のデータをブール形式に識別し、次に特徴の選択と非常に高速なアルゴリズムを組み合わせることで設定に最適なブール分類器を生成する。
この手法を14の実験で実証し,ランダム林,xgboost,および文献中の同じデータセットに対する既存の結果とよく似た精度で結果を得た。
いくつかのケースでは,本研究の目的が分類器の即時解釈性であるにもかかわらず,本手法は正確性に関する基準結果を上回っています。
また,実生活データから得られた分類器が,データが生み出す背景分布に関して理想的最良分類器に対応する確率について,新たな結果を示す。
関連論文リスト
- Globally Interpretable Classifiers via Boolean Formulas with Dynamic Propositions [4.195816579137846]
提案手法はAnswer Set Programmingを用いて実装する。
本研究では、7つのデータセットを調査し、その結果を最先端の分類器で取得可能なデータセットと比較する。
すべてのケースにおいて、分類器の利点は、参照メソッドのブラックボックスの性質とは対照的に、非常に短く、すぐに人間の知性があることです。
論文 参考訳(メタデータ) (2024-06-03T08:46:17Z) - Classification Tree-based Active Learning: A Wrapper Approach [4.706932040794696]
本稿では,木構造にサンプリングプロセスを整理し,分類のためのラッパー能動的学習法を提案する。
ラベル付き標本の初期集合上に構築された分類木は、空間を低エントロピー領域に分解すると考えられる。
この適応は、既存のアクティブラーニング手法よりも大幅に向上することが証明されている。
論文 参考訳(メタデータ) (2024-04-15T17:27:00Z) - Obtaining Explainable Classification Models using Distributionally
Robust Optimization [12.511155426574563]
特徴値規則の集合を用いて構築した一般化線形モデルについて検討する。
ルールセットの間隔と予測精度の間には、固有のトレードオフが存在する。
我々はこれらの競合する要因に同時に対処するルールセットの集合を学習するための新しい定式化を提案する。
論文 参考訳(メタデータ) (2023-11-03T15:45:34Z) - Convolutional autoencoder-based multimodal one-class classification [80.52334952912808]
1クラス分類は、単一のクラスからのデータを用いた学習のアプローチを指す。
マルチモーダルデータに適した深層学習一クラス分類法を提案する。
論文 参考訳(メタデータ) (2023-09-25T12:31:18Z) - Invariance Learning in Deep Neural Networks with Differentiable Laplace
Approximations [76.82124752950148]
我々はデータ拡張を選択するための便利な勾配法を開発した。
我々はKronecker-factored Laplace近似を我々の目的とする限界確率に近似する。
論文 参考訳(メタデータ) (2022-02-22T02:51:11Z) - Visualizing Classifier Adjacency Relations: A Case Study in Speaker
Verification and Voice Anti-Spoofing [72.4445825335561]
任意のバイナリ分類器によって生成される検出スコアから2次元表現を導出する簡単な方法を提案する。
ランク相関に基づいて,任意のスコアを用いた分類器の視覚的比較を容易にする。
提案手法は完全に汎用的であり,任意の検出タスクに適用可能だが,自動話者検証と音声アンチスプーフィングシステムによるスコアを用いた手法を実証する。
論文 参考訳(メタデータ) (2021-06-11T13:03:33Z) - Evaluating State-of-the-Art Classification Models Against Bayes
Optimality [106.50867011164584]
正規化フローを用いて学習した生成モデルのベイズ誤差を正確に計算できることを示す。
われわれの手法を用いて、最先端の分類モデルについて徹底的な調査を行う。
論文 参考訳(メタデータ) (2021-06-07T06:21:20Z) - Minimax Active Learning [61.729667575374606]
アクティブラーニングは、人間のアノテーションによってラベル付けされる最も代表的なサンプルをクエリすることによって、ラベル効率の高いアルゴリズムを開発することを目指している。
現在のアクティブラーニング技術は、最も不確実なサンプルを選択するためにモデルの不確実性に頼るか、クラスタリングを使うか、最も多様なラベルのないサンプルを選択するために再構築する。
我々は,不確実性と多様性を両立させる半教師付きミニマックスエントロピーに基づく能動学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2020-12-18T19:03:40Z) - Learning from Incomplete Features by Simultaneous Training of Neural
Networks and Sparse Coding [24.3769047873156]
本稿では,不完全な特徴を持つデータセット上で分類器を訓練する問題に対処する。
私たちは、各データインスタンスで異なる機能のサブセット(ランダムまたは構造化)が利用できると仮定します。
新しい教師付き学習法が開発され、サンプルあたりの機能のサブセットのみを使用して、一般的な分類器を訓練する。
論文 参考訳(メタデータ) (2020-11-28T02:20:39Z) - Good Classifiers are Abundant in the Interpolating Regime [64.72044662855612]
補間分類器間のテストエラーの完全な分布を正確に計算する手法を開発した。
テストエラーは、最悪の補間モデルのテストエラーから大きく逸脱する、小さな典型的な$varepsilon*$に集中する傾向にある。
以上の結果から,統計的学習理論における通常の解析手法は,実際に観測された優れた一般化性能を捉えるのに十分な粒度にはならない可能性が示唆された。
論文 参考訳(メタデータ) (2020-06-22T21:12:31Z) - Random Hyperboxes [9.061408029414455]
本稿では,個々のハイパーボックスに基づく分類器の強度に基づいて,提案した分類器の一般化誤差を示す。
提案する分類器の有効性は、慎重に選択された例を用いて分析する。
実データセットの一般化誤差境界に関する既存の問題を特定し,潜在的研究の方向性を報告する。
論文 参考訳(メタデータ) (2020-06-01T03:42:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。