論文の概要: ControlBurn: Nonlinear Feature Selection with Sparse Tree Ensembles
- arxiv url: http://arxiv.org/abs/2207.03935v1
- Date: Fri, 8 Jul 2022 14:37:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-11 13:12:07.556557
- Title: ControlBurn: Nonlinear Feature Selection with Sparse Tree Ensembles
- Title(参考訳): ControlBurn: スパースツリーアンサンブルによる非線形特徴選択
- Authors: Brian Liu, Miaolan Xie, Haoyue Yang, Madeleine Udell
- Abstract要約: ControlBurnは、機能スパースツリーアンサンブルを構築するPythonパッケージである。
パッケージには、アンサンブルによって選択された機能を分析する視覚化が含まれている。
- 参考スコア(独自算出の注目度): 20.72259480917207
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: ControlBurn is a Python package to construct feature-sparse tree ensembles
that support nonlinear feature selection and interpretable machine learning.
The algorithms in this package first build large tree ensembles that prioritize
basis functions with few features and then select a feature-sparse subset of
these basis functions using a weighted lasso optimization criterion. The
package includes visualizations to analyze the features selected by the
ensemble and their impact on predictions. Hence ControlBurn offers the accuracy
and flexibility of tree-ensemble models and the interpretability of sparse
generalized additive models.
ControlBurn is scalable and flexible: for example, it can use warm-start
continuation to compute the regularization path (prediction error for any
number of selected features) for a dataset with tens of thousands of samples
and hundreds of features in seconds. For larger datasets, the runtime scales
linearly in the number of samples and features (up to a log factor), and the
package support acceleration using sketching. Moreover, the ControlBurn
framework accommodates feature costs, feature groupings, and $\ell_0$-based
regularizers. The package is user-friendly and open-source: its documentation
and source code appear on https://pypi.org/project/ControlBurn/ and
https://github.com/udellgroup/controlburn/.
- Abstract(参考訳): ControlBurnは、非線型機能選択と解釈可能な機械学習をサポートする機能スパースツリーアンサンブルを構築するPythonパッケージである。
このパッケージのアルゴリズムはまず、少数の機能を持つ基底関数を優先する大きなツリーアンサンブルを構築し、その後、重み付けされたラッソ最適化基準を用いて、これらの基底関数の機能スパースサブセットを選択する。
パッケージには、アンサンブルによって選択された機能とその予測への影響を分析する視覚化が含まれている。
したがって、ControlBurnはツリーアンサンブルモデルの精度と柔軟性とスパース一般化加法モデルの解釈可能性を提供する。
ControlBurnはスケーラブルで柔軟性があり、例えば、数千のサンプルと数百の機能を数秒で持つデータセットの正規化パス(選択した機能の予測エラー)を計算するためにウォームスタート継続を使用することができる。
より大きなデータセットの場合、ランタイムはサンプルの数と機能(ログファクタまで)を線形にスケールし、スケッチによるパッケージサポートアクセラレーションをサポートする。
さらに、ControlBurnフレームワークは、機能コスト、機能グループ化、および$\ell_0$ベースのレギュレータに対応している。
ドキュメントとソースコードはhttps://pypi.org/project/ControlBurn/とhttps://github.com/udellgroup/controlburn/に表示される。
関連論文リスト
- ODTlearn: A Package for Learning Optimal Decision Trees for Prediction
and Prescription [3.293021585117505]
ODTLearnは、最適な決定木を学ぶためのオープンソースのPythonパッケージである。
高精度な予測と規範的なタスクに最適な決定木を学習する方法を提供する。
論文 参考訳(メタデータ) (2023-07-28T17:37:47Z) - Interpreting Deep Neural Networks with the Package innsight [0.951828574518325]
innsightは一般的に、ニューラルネットワークのための機能属性メソッドを実装する最初のRパッケージである。
ディープラーニングライブラリとは独立して動作し、任意のRパッケージからモデルの解釈を可能にする。
Innsightは、トーチパッケージの高速かつ効率的な配列計算から内部的に恩恵を受ける。
論文 参考訳(メタデータ) (2023-06-19T10:12:32Z) - Unboxing Tree Ensembles for interpretability: a hierarchical
visualization tool and a multivariate optimal re-built tree [0.34530027457862006]
我々は,木組モデルの解釈可能な表現を開発し,その振る舞いに関する貴重な洞察を提供する。
提案モデルは,木組決定関数を近似した浅い解釈可能な木を得るのに有効である。
論文 参考訳(メタデータ) (2023-02-15T10:43:31Z) - ControlBurn: Feature Selection by Sparse Forests [22.430705836627155]
そこで本研究では、RASOをベースとした特徴選択法を用いて、木アンサンブルから不要な特徴を抽出する特徴選択アルゴリズムであるControlBurnを提案する。
相関した特徴を持つデータセットに対して,ControlBurnが同等の計算コストで機能選択法よりも大幅に優れていることを示す。
論文 参考訳(メタデータ) (2021-07-01T05:14:51Z) - Dynamic Probabilistic Pruning: A general framework for
hardware-constrained pruning at different granularities [80.06422693778141]
異なる粒度(重み、カーネル、フィルタ/フィーチャーマップ)での刈り取りを容易にするフレキシブルな新しい刈り取り機構を提案する。
このアルゴリズムをDPP(Dynamic Probabilistic Pruning)と呼ぶ。
DPPは、画像分類のための異なるベンチマークデータセットで訓練された一般的なディープラーニングモデルを刈り取る際に、競合圧縮率と分類精度を達成する。
論文 参考訳(メタデータ) (2021-05-26T17:01:52Z) - Captum: A unified and generic model interpretability library for PyTorch [49.72749684393332]
我々は,PyTorch用の新しい,統一されたオープンソースモデル解釈可能性ライブラリを紹介する。
このライブラリには、多くの勾配と摂動に基づく属性アルゴリズムの汎用的な実装が含まれている。
分類モデルと非分類モデルの両方に使用できる。
論文 参考訳(メタデータ) (2020-09-16T18:57:57Z) - Infinite Feature Selection: A Graph-based Feature Filtering Approach [78.63188057505012]
グラフ内の経路として特徴のサブセットを考慮したフィルタリング機能選択フレームワークを提案する。
無限に進むことで、選択プロセスの計算複雑性を制限できる。
Inf-FSはほとんどどんな状況でも、つまり、保持するフィーチャの数が優先順位に固定されているときに、より良く振る舞うことを示す。
論文 参考訳(メタデータ) (2020-06-15T07:20:40Z) - Torch-Struct: Deep Structured Prediction Library [138.5262350501951]
本稿では,構造化予測ライブラリTorch-Structを紹介する。
Torch-Structには,シンプルで柔軟な分散ベースのAPIを通じてアクセスされる,確率的構造の広範なコレクションが含まれている。
論文 参考訳(メタデータ) (2020-02-03T16:43:02Z) - Particle-Gibbs Sampling For Bayesian Feature Allocation Models [77.57285768500225]
最も広く使われているMCMC戦略は、特徴割り当て行列のギブス更新に頼っている。
単一移動で特徴割り当て行列の全行を更新できるギブスサンプリング器を開発した。
このサンプルは、計算複雑性が特徴数で指数関数的にスケールするにつれて、多数の特徴を持つモデルにとって実用的ではない。
我々は,行ワイズギブズ更新と同じ分布を目標としたパーティクルギブズサンプルの開発を行うが,特徴数でのみ線形に増大する計算複雑性を有する。
論文 参考訳(メタデータ) (2020-01-25T22:11:51Z) - Multi-layer Optimizations for End-to-End Data Analytics [71.05611866288196]
代替アプローチを実現するフレームワークであるIFAQ(Iterative Functional Aggregate Queries)を紹介する。
IFAQは、特徴抽出クエリと学習タスクを、IFAQのドメイン固有言語で与えられた1つのプログラムとして扱う。
IFAQ の Scala 実装が mlpack,Scikit,特殊化を数桁で上回り,線形回帰木モデルや回帰木モデルを複数の関係データセット上で処理可能であることを示す。
論文 参考訳(メタデータ) (2020-01-10T16:14:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。