論文の概要: Revisiting Chebyshev Polynomial and Anisotropic RBF Models for Tabular Regression
- arxiv url: http://arxiv.org/abs/2602.22422v1
- Date: Wed, 25 Feb 2026 21:34:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-27 18:41:22.412519
- Title: Revisiting Chebyshev Polynomial and Anisotropic RBF Models for Tabular Regression
- Title(参考訳): 口蓋後退に対するチェビシェフポリノミアルモデルと異方性RBFモデルの再検討
- Authors: Luciano Gerber, Huw Lloyd,
- Abstract要約: チェビシェフ回帰器や放射基底関数(RBF)ネットワークのような滑らかな基底モデルが数値解析においてよく確立されている。
アプリケーションドメインによって編成された55の回帰データセットにまたがって、モデルをベンチマークできるかどうかを問う。
- 参考スコア(独自算出の注目度): 0.7734726150561086
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Smooth-basis models such as Chebyshev polynomial regressors and radial basis function (RBF) networks are well established in numerical analysis. Their continuously differentiable prediction surfaces suit surrogate optimisation, sensitivity analysis, and other settings where the response varies gradually with inputs. Despite these properties, smooth models seldom appear in tabular regression, where tree ensembles dominate. We ask whether they can compete, benchmarking models across 55 regression datasets organised by application domain. We develop an anisotropic RBF network with data-driven centre placement and gradient-based width optimisation, a ridge-regularised Chebyshev polynomial regressor, and a smooth-tree hybrid (Chebyshev model tree); all three are released as scikit-learn-compatible packages. We benchmark these against tree ensembles, a pre-trained transformer, and standard baselines, evaluating accuracy alongside generalisation behaviour. The transformer ranks first on accuracy across a majority of datasets, but its GPU dependence, inference latency, and dataset-size limits constrain deployment in the CPU-based settings common across applied science and industry. Among CPU-viable models, smooth models and tree ensembles are statistically tied on accuracy, but the former tend to exhibit tighter generalisation gaps. We recommend routinely including smooth-basis models in the candidate pool, particularly when downstream use benefits from tighter generalisation and gradually varying predictions.
- Abstract(参考訳): チェビシェフ多項式回帰器や放射基底関数(RBF)ネットワークのような滑らかな基底モデルが数値解析においてよく確立されている。
彼らの連続的な微分可能な予測曲面は、応答が入力とともに徐々に変化するような最適化、感度分析、その他の設定に適合する。
これらの性質にもかかわらず、滑らかなモデルはほとんど表層回帰に現れず、そこでは木のアンサンブルが支配的である。
アプリケーションドメインによって編成された55の回帰データセットにまたがって、モデルをベンチマークできるかどうかを問う。
我々は、データ駆動中心配置と勾配に基づく幅最適化、リッジ規則化されたチェビシェフ多項式回帰器、スムーズツリーハイブリッド(チェビシェフモデルツリー)を備えた異方性RBFネットワークを開発し、これら3つをシキトラーン互換パッケージとしてリリースする。
我々はこれらを、木アンサンブル、事前訓練されたトランスフォーマー、標準ベースラインに対してベンチマークし、一般化動作とともに精度を評価する。
トランスフォーマーは、ほとんどのデータセットの精度で最初にランク付けするが、GPU依存、推論レイテンシ、データセットサイズ制限により、応用科学や業界で共通するCPUベースの設定へのデプロイメントが制限される。
CPU対応モデルでは、滑らかなモデルとツリーアンサンブルは統計的に精度に結びついているが、前者はより厳密な一般化ギャップを示す傾向にある。
特に、より厳密な一般化と徐々に変化する予測による下流利用の利点を活かして、スムーズなベイズモデルを候補プールに含めることを推奨する。
関連論文リスト
- Self-Boost via Optimal Retraining: An Analysis via Approximate Message Passing [58.52119063742121]
独自の予測と潜在的にノイズの多いラベルを使ってモデルをトレーニングすることは、モデルパフォーマンスを改善するためのよく知られた戦略である。
本稿では,モデルの予測と提供ラベルを最適に組み合わせる方法について論じる。
我々の主な貢献は、現在のモデルの予測と与えられたラベルを組み合わせたベイズ最適集約関数の導出である。
論文 参考訳(メタデータ) (2025-05-21T07:16:44Z) - Drift-Resilient TabPFN: In-Context Learning Temporal Distribution Shifts on Tabular Data [39.40116554523575]
In-Context Learning with a Prior-Data Fitted Network に基づく新しいアプローチである Drift-Resilient TabPFN を提案する。
先行した合成データセットのベイズ推定を近似することを学ぶ。
精度は0.688から0.744に向上し、OC AUCは0.786から0.832に向上し、キャリブレーションも強化された。
論文 参考訳(メタデータ) (2024-11-15T23:49:23Z) - Scaling and renormalization in high-dimensional regression [72.59731158970894]
リッジ回帰に関する最近の結果について統一的な視点を提示する。
我々は、物理とディープラーニングの背景を持つ読者を対象に、ランダム行列理論と自由確率の基本的なツールを使用する。
我々の結果は拡張され、初期のスケーリング法則のモデルについて統一的な視点を提供する。
論文 参考訳(メタデータ) (2024-05-01T15:59:00Z) - Transformers meet Stochastic Block Models: Attention with Data-Adaptive
Sparsity and Cost [53.746169882193456]
最近の研究は、自己注意の二次的コストを克服するために、様々なスパークアテンションモジュールを提案している。
本稿では,それぞれの注意を混合メンバーシップブロックモデルで表現することで,両方の問題を解決するモデルを提案する。
我々のモデルは、以前の効率的な変種とオリジナルのトランスフォーマーより優れており、十分に注目されています。
論文 参考訳(メタデータ) (2022-10-27T15:30:52Z) - Regression Transformer: Concurrent Conditional Generation and Regression
by Blending Numerical and Textual Tokens [3.421506449201873]
Regression Transformer (RT)は、数値トークンのシーケンスとして連続プロパティをキャストし、それらを従来のトークンと共同でエンコードする。
我々はXLNetの目的に対するいくつかの拡張を提案し、プロパティ予測と条件テキスト生成を同時に最適化する交互トレーニングスキームを採用する。
このことは、特にプロパティ駆動で、化学またはタンパク質空間の局所的な探索に応用される。
論文 参考訳(メタデータ) (2022-02-01T08:57:31Z) - Evaluation of Tree Based Regression over Multiple Linear Regression for
Non-normally Distributed Data in Battery Performance [0.5735035463793008]
本研究では,機械学習モデル構築におけるデータ正規性の影響について検討する。
木に基づく回帰モデルと複数の線形回帰モデルは、それぞれ高度に歪んだ非正規データセットから構築される。
論文 参考訳(メタデータ) (2021-11-03T20:28:24Z) - Evaluating Prediction-Time Batch Normalization for Robustness under
Covariate Shift [81.74795324629712]
我々は予測時間バッチ正規化と呼び、共変量シフト時のモデル精度とキャリブレーションを大幅に改善する。
予測時間バッチ正規化は、既存の最先端アプローチに相補的な利点をもたらし、ロバスト性を向上させることを示します。
この手法は、事前トレーニングと併用して使用すると、さまざまな結果が得られるが、より自然なタイプのデータセットシフトでは、パフォーマンスが良くないようだ。
論文 参考訳(メタデータ) (2020-06-19T05:08:43Z) - Deep transformation models: Tackling complex regression problems with
neural network based transformation models [0.0]
確率回帰のための深層変換モデルを提案する。
これは、結果の不確実性を捉える最も徹底的な方法である条件付き確率分布全体を推定する。
本手法は複雑な入力データに対して有効であり,画像データにCNNアーキテクチャを適用して実演する。
論文 参考訳(メタデータ) (2020-04-01T14:23:12Z) - A Numerical Transform of Random Forest Regressors corrects
Systematically-Biased Predictions [0.0]
ランダムな森林モデルからの予測には体系的なバイアスがある。
このバイアスは単純な合成データセットで再カプセル化される。
トレーニングデータを使用して、それを完全に修正する数値変換を定義します。
論文 参考訳(メタデータ) (2020-03-16T21:18:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。