論文の概要: Symbolic-Regression Boosting
- arxiv url: http://arxiv.org/abs/2206.12082v1
- Date: Fri, 24 Jun 2022 05:20:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-27 12:31:37.388305
- Title: Symbolic-Regression Boosting
- Title(参考訳): シンボリック・レグレッション・ブースティング
- Authors: Moshe Sipper and Jason H Moore
- Abstract要約: 我々はSyRBo: Symbolic-Regression Boostingを紹介する。
SyRBoは基本的には単純なアドオンで、既存のシンボリック回帰器に簡単に追加できる。
- 参考スコア(独自算出の注目度): 4.901632310846025
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modifying standard gradient boosting by replacing the embedded weak learner
in favor of a strong(er) one, we present SyRBo: Symbolic-Regression Boosting.
Experiments over 98 regression datasets show that by adding a small number of
boosting stages -- between 2--5 -- to a symbolic regressor, statistically
significant improvements can often be attained. We note that coding SyRBo on
top of any symbolic regressor is straightforward, and the added cost is simply
a few more evolutionary rounds. SyRBo is essentially a simple add-on that can
be readily added to an extant symbolic regressor, often with beneficial
results.
- Abstract(参考訳): 埋め込みの弱い学習者を置き換えることで、標準勾配ブースティングを変更することで、強力な(er)学習者を選び、sirbo:symbol-regression boosting(シンボリック回帰ブースティング)を提案する。
98以上の回帰データセットの実験では、象徴的な回帰器に少数のブースティングステージ(2~5)を追加することで、統計的に重要な改善がしばしば達成される。
シンボリックな回帰器の上でSyRBoをコーディングするのは簡単であり、追加のコストは単により進化的なラウンドである。
SyRBoは基本的には単純なアドオンで、既存のシンボル的回帰器に簡単に追加できる。
関連論文リスト
- Robust Capped lp-Norm Support Vector Ordinal Regression [85.84718111830752]
正規回帰は、ラベルが固有の順序を示す特殊な教師付き問題である。
卓越した順序回帰モデルとしてのベクトル順序回帰は、多くの順序回帰タスクで広く使われている。
我々は,新たなモデルであるCapped $ell_p$-Norm Support Vector Ordinal Regression (CSVOR)を導入する。
論文 参考訳(メタデータ) (2024-04-25T13:56:05Z) - Rethinking Classifier Re-Training in Long-Tailed Recognition: A Simple
Logits Retargeting Approach [102.0769560460338]
我々は,クラスごとのサンプル数に関する事前知識を必要とせず,シンプルなロジットアプローチ(LORT)を開発した。
提案手法は,CIFAR100-LT, ImageNet-LT, iNaturalist 2018など,様々な不均衡データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-01T03:27:08Z) - Deep Generative Symbolic Regression [83.04219479605801]
記号回帰は、データから簡潔な閉形式数学的方程式を発見することを目的としている。
既存の手法は、探索から強化学習まで、入力変数の数に応じてスケールできない。
本稿では,我々のフレームワークであるDeep Generative Symbolic Regressionのインスタンス化を提案する。
論文 参考訳(メタデータ) (2023-12-30T17:05:31Z) - Scalable Neural Symbolic Regression using Control Variables [7.725394912527969]
本稿では,制御変数を利用したスケーラブルなシンボル回帰モデルであるScaleSRを提案し,精度とスケーラビリティを両立させる。
まず、ディープニューラルネットワーク(DNN)を用いて観測データからデータジェネレータを学習する。
実験結果から,複数の変数を持つ数学的表現の発見において,提案した ScaleSR は最先端のベースラインを著しく上回ることがわかった。
論文 参考訳(メタデータ) (2023-06-07T18:30:25Z) - ResMem: Learn what you can and memorize the rest [79.19649788662511]
本稿では,既存の予測モデルを拡張するための残差記憶アルゴリズム(ResMem)を提案する。
構築によって、ResMemはトレーニングラベルを明示的に記憶することができる。
ResMemは、元の予測モデルのテストセットの一般化を一貫して改善することを示す。
論文 参考訳(メタデータ) (2023-02-03T07:12:55Z) - SymFormer: End-to-end symbolic regression using transformer-based
architecture [2.2049183478692584]
そこで我々はSymFormerという変圧器に基づく手法を提案し,各シンボルと対応する定数を同時に出力することで式を予測する。
我々は,SymFormerが2つの最先端メソッドを高速な推論で上回り,その性能をベンチマークで示す。
論文 参考訳(メタデータ) (2022-05-31T13:01:50Z) - Neural Symbolic Regression that Scales [58.45115548924735]
本稿では,大規模事前学習を利用した最初の記号回帰手法を提案する。
我々は,非有界な方程式の集合を手続き的に生成し,同時にインプット・アウトプット・ペアの集合からシンボル方程式を予測するためにトランスフォーマーを事前訓練する。
論文 参考訳(メタデータ) (2021-06-11T14:35:22Z) - A Precise Performance Analysis of Support Vector Regression [105.94855998235232]
我々は,n$の線形測定に応用したハードおよびソフトサポートベクター回帰法について検討した。
得られた結果は、ハードおよびソフトサポートベクトル回帰アルゴリズムの設計に介入するパラメータを最適に調整するために使用される。
論文 参考訳(メタデータ) (2021-05-21T14:26:28Z) - Robust Boosting for Regression Problems [0.0]
基底学習者の線形結合による回帰予測アルゴリズムの構築
このロバストなブースティングアルゴリズムは、2段階のアプローチに基づいており、ロバストな線形回帰のためにブースティングが行なわれているのと同様である。
非定型的な観測が存在しない場合、頑健な昇降法は正方形損失を伴う標準勾配昇降法と同様に機能する。
論文 参考訳(メタデータ) (2020-02-06T01:12:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。