論文の概要: Simplification of Forest Classifiers and Regressors
- arxiv url: http://arxiv.org/abs/2212.07103v1
- Date: Wed, 14 Dec 2022 08:49:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-15 15:26:02.207525
- Title: Simplification of Forest Classifiers and Regressors
- Title(参考訳): 森林分類器と回帰器の簡易化
- Authors: Atsuyoshi Nakamura, Kento Sakurada
- Abstract要約: 本研究では,森林分類器や回帰器の枝分かれ条件をできるだけ多く共有する問題について検討する。
本稿では,この問題を効率的に解くアルゴリズムを用いて,元問題に対するアルゴリズムを提案する。
本手法の有効性は,21個のデータセットを用いた総合的な実験によって実証された。
- 参考スコア(独自算出の注目度): 1.8275108630751844
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We study the problem of sharing as many branching conditions of a given
forest classifier or regressor as possible while keeping classification
performance. As a constraint for preventing from accuracy degradation, we first
consider the one that the decision paths of all the given feature vectors must
not change. For a branching condition that a value of a certain feature is at
most a given threshold, the set of values satisfying such constraint can be
represented as an interval. Thus, the problem is reduced to the problem of
finding the minimum set intersecting all the constraint-satisfying intervals
for each set of branching conditions on the same feature. We propose an
algorithm for the original problem using an algorithm solving this problem
efficiently. The constraint is relaxed later to promote further sharing of
branching conditions by allowing decision path change of a certain ratio of the
given feature vectors or allowing a certain number of non-intersected
constraint-satisfying intervals. We also extended our algorithm for both the
relaxations. The effectiveness of our method is demonstrated through
comprehensive experiments using 21 datasets (13 classification and 8 regression
datasets in UCI machine learning repository) and 4 classifiers/regressors
(random forest, extremely randomized trees, AdaBoost and gradient boosting).
- Abstract(参考訳): 分類性能を維持しつつ,森林分類器や回帰器の分枝条件をできるだけ多く共有する問題について検討する。
精度低下を防止するための制約として,我々はまず,与えられたすべての特徴ベクトルの決定経路が変化してはならないと考える。
ある特徴の値が与えられた閾値以上である分岐条件において、そのような制約を満たす値の集合を区間として表現することができる。
したがって、問題は、同じ特徴上の分岐条件の集合ごとに全ての制約満足区間を交わす最小集合を求める問題に還元される。
本稿では,この問題を効率的に解くアルゴリズムを用いて,原問題に対するアルゴリズムを提案する。
制約は後に緩和され、与えられた特徴ベクトルの特定の比率の決定経路の変更を許可したり、ある数の非交差制約満足区間を許容することにより分岐条件のさらなる共有を促進する。
また,緩和のためのアルゴリズムも拡張した。
本手法の有効性は,21のデータセット(UCI機械学習レポジトリの13の分類と8の回帰データセット)と4の分類器/回帰器(ランダム林,極ランダム木,AdaBoost,勾配ブースティング)を用いた総合的な実験により実証された。
関連論文リスト
- Robust Stochastically-Descending Unrolled Networks [85.6993263983062]
Deep Unrolling(ディープ・アンローリング)は、トレーニング可能なニューラルネットワークの層に切り捨てられた反復アルゴリズムをアンロールする、新たな学習最適化手法である。
アンロールネットワークの収束保証と一般化性は、いまだにオープンな理論上の問題であることを示す。
提案した制約の下で訓練されたアンロールアーキテクチャを2つの異なるアプリケーションで数値的に評価する。
論文 参考訳(メタデータ) (2023-12-25T18:51:23Z) - Global and Preference-based Optimization with Mixed Variables using Piecewise Affine Surrogates [0.6083861980670925]
本稿では,線形制約付き混合変数問題の解法として,新しいサロゲートに基づく大域的最適化アルゴリズムを提案する。
目的関数はブラックボックスとコスト対評価であり、線形制約は予測不可能な事前知識である。
本稿では,2種類の探索関数を導入し,混合整数線形計画解法を用いて実現可能な領域を効率的に探索する。
論文 参考訳(メタデータ) (2023-02-09T15:04:35Z) - Accelerated First-Order Optimization under Nonlinear Constraints [73.2273449996098]
我々は、制約付き最適化のための一階アルゴリズムと非滑らかなシステムの間で、新しい一階アルゴリズムのクラスを設計する。
これらのアルゴリズムの重要な性質は、制約がスパース変数の代わりに速度で表されることである。
論文 参考訳(メタデータ) (2023-02-01T08:50:48Z) - On Dynamic Regret and Constraint Violations in Constrained Online Convex
Optimization [17.412117389855222]
提案するアルゴリズムは,現在の動作の周囲に適度に選択された集合上の射影勾配勾配を追従する。
動的後悔と制約違反の両方が、連続する最適動作間の距離の和であるパス長によって順序的に束縛されていることを示す。
論文 参考訳(メタデータ) (2023-01-24T04:22:13Z) - Optimal Clustering with Bandit Feedback [57.672609011609886]
本稿では,バンディットフィードバックを用いたオンラインクラスタリングの問題点について考察する。
これは、NPハード重み付きクラスタリング問題をサブルーチンとして解決する必要性を回避するための、シーケンシャルなテストのための新しい停止規則を含む。
合成および実世界のデータセットの広範なシミュレーションを通して、BOCの性能は下界と一致し、非適応的ベースラインアルゴリズムよりも大幅に優れることを示す。
論文 参考訳(メタデータ) (2022-02-09T06:05:05Z) - Iterative Weak Learnability and Multi-Class AdaBoost [0.0]
SAMMEに触発されたマルチクラス分類問題に対する効率的なアンサンブルアルゴリズムを構築する。
SAMMEとは対照的に、アルゴリズムの最終仮説は確率1の正しいラベルに収束する。
サンプルサイズのみに依存する訓練誤差と追加項の和は,適応ブースティングアルゴリズムとしてアルゴリズムの一般化誤差を限定する。
論文 参考訳(メタデータ) (2021-01-26T03:30:30Z) - Modeling Text with Decision Forests using Categorical-Set Splits [2.434796198711328]
軸方向決定林では、入力例をルートする「決定」は特徴空間の1次元における条件の評価の結果である。
分類的特徴に特有な条件を定義し,それを学習するためのアルゴリズムを提案する。
我々のアルゴリズムは訓練中は効率的であり、結果の条件はQuickScorer推論アルゴリズムの拡張により高速に評価できる。
論文 参考訳(メタデータ) (2020-09-21T16:16:35Z) - Non-Adaptive Adaptive Sampling on Turnstile Streams [57.619901304728366]
カラムサブセット選択、部分空間近似、射影クラスタリング、および空間サブリニアを$n$で使用するターンタイルストリームのボリュームに対する最初の相対エラーアルゴリズムを提供する。
我々の適応的なサンプリング手法は、様々なデータ要約問題に多くの応用をもたらしており、これは最先端を改善するか、より緩和された行列列モデルで以前に研究されただけである。
論文 参考訳(メタデータ) (2020-04-23T05:00:21Z) - Lagrangian Decomposition for Neural Network Verification [148.0448557991349]
ニューラルネットワーク検証の基本的なコンポーネントは、出力が取ることのできる値のバウンダリの計算である。
ラグランジアン分解に基づく新しい手法を提案する。
ランニングタイムのごく一部で、既成の解法に匹敵するバウンダリが得られることを示す。
論文 参考訳(メタデータ) (2020-02-24T17:55:10Z) - Optimal Clustering from Noisy Binary Feedback [75.17453757892152]
本稿では,二元的ユーザフィードバックから一組のアイテムをクラスタリングする問題について検討する。
最小クラスタ回復誤差率のアルゴリズムを考案する。
適応選択のために,情報理論的誤差下界の導出にインスパイアされたアルゴリズムを開発する。
論文 参考訳(メタデータ) (2019-10-14T09:18:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。