論文の概要: KMLP: A Scalable Hybrid Architecture for Web-Scale Tabular Data Modeling
- arxiv url: http://arxiv.org/abs/2602.22777v1
- Date: Thu, 26 Feb 2026 09:12:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-27 18:41:22.614628
- Title: KMLP: A Scalable Hybrid Architecture for Web-Scale Tabular Data Modeling
- Title(参考訳): KMLP: Webスケールタブラルデータモデリングのためのスケーラブルなハイブリッドアーキテクチャ
- Authors: Mingming Zhang, Pengfei Shi, Zhiqing Xiao, Feng Zhao, Guandong Sun, Yulin Kang, Ruizhe Gao, Ningtao Wang, Xing Fu, Weiqiang Wang, Junbo Zhao,
- Abstract要約: 我々はKMLPという,浅いコルモゴロフ・アルノルドネットワーク(KAN)フロントエンドとGated Multilayer Perceptron(gMLP)バックボーンを統合したハイブリッドディープアーキテクチャを導入する。
公開ベンチマークと数十億のサンプルによる産業データセットの実験は、KMLPが最先端のパフォーマンスを実現し、GBDTのようなベースラインよりも大きなスケールでメリットがあることを示している。
- 参考スコア(独自算出の注目度): 29.821326024794953
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Predictive modeling on web-scale tabular data with billions of instances and hundreds of heterogeneous numerical features faces significant scalability challenges. These features exhibit anisotropy, heavy-tailed distributions, and non-stationarity, creating bottlenecks for models like Gradient Boosting Decision Trees and requiring laborious manual feature engineering. We introduce KMLP, a hybrid deep architecture integrating a shallow Kolmogorov-Arnold Network (KAN) front-end with a Gated Multilayer Perceptron (gMLP) backbone. The KAN front-end uses learnable activation functions to automatically model complex non-linear transformations for each feature, while the gMLP backbone captures high-order interactions. Experiments on public benchmarks and an industrial dataset with billions of samples show KMLP achieves state-of-the-art performance, with advantages over baselines like GBDTs increasing at larger scales, validating KMLP as a scalable deep learning paradigm for large-scale web tabular data.
- Abstract(参考訳): 数十億のインスタンスと数百の不均一な数値特徴を持つWebスケールの表型データに対する予測モデリングは、大きなスケーラビリティの課題に直面している。
これらの特徴は異方性、重い尾の分布、非定常性を示し、グラディエントブースティング決定木のようなモデルのボトルネックを生み出し、手動の特徴工学を必要とする。
我々はKMLPという,浅いコルモゴロフ・アルノルドネットワーク(KAN)フロントエンドとGated Multilayer Perceptron(gMLP)バックボーンを統合したハイブリッドディープアーキテクチャを導入する。
Kanフロントエンドは学習可能なアクティベーション関数を使用して、各機能の複雑な非線形変換を自動的にモデル化し、gMLPバックボーンは高次のインタラクションをキャプチャする。
公開ベンチマークと数十億のサンプルを持つ産業データセットの実験では、KMLPは最先端のパフォーマンスを実現しており、GBDTのようなベースラインよりも大きなスケールで増加し、大規模なWeb表データのためのスケーラブルなディープラーニングパラダイムとしてKMLPを検証することができる。
関連論文リスト
- iLTM: Integrated Large Tabular Model [41.81329403540607]
iLTMは、木由来の埋め込み、次元に依存しない表現、メタトレーニングされたハイパーネットワーク、多層パーセプトロン、単一のアーキテクチャ内での検索を統一する統合された大型タブラルモデルである。
論文 参考訳(メタデータ) (2025-11-20T00:20:16Z) - Instruction-Guided Autoregressive Neural Network Parameter Generation [49.800239140036496]
本稿では,多種多様なタスクやアーキテクチャにまたがるパラメータ合成を統一する自動回帰フレームワークIGPGを提案する。
ニューラルネットワーク重みのトークンを自動回帰的に生成することにより、IGPGは層間コヒーレンスを確保し、モデルとデータセット間の効率的な適応を可能にする。
複数のデータセットの実験により、IGPGは様々な事前訓練されたモデルを単一の柔軟な生成フレームワークに統合することを示した。
論文 参考訳(メタデータ) (2025-04-02T05:50:19Z) - SMPLest-X: Ultimate Scaling for Expressive Human Pose and Shape Estimation [81.36747103102459]
表現的人間のポーズと形状推定(EHPS)は、身体、手、顔の動きを多数の応用で統合する。
現在の最先端の手法は、限定されたデータセット上で革新的なアーキテクチャ設計を訓練することに焦点を当てている。
本稿では,EHPSのスケールアップが一般基盤モデルのファミリに与える影響について検討する。
論文 参考訳(メタデータ) (2025-01-16T18:59:46Z) - Data-Juicer 2.0: Cloud-Scale Adaptive Data Processing for and with Foundation Models [83.65386456026441]
Data-Juicer 2.0は、テキスト、画像、ビデオ、オーディオのモダリティにまたがる100以上のデータ処理オペレータがバックアップするデータ処理システムである。
データ分析、合成、アノテーション、基礎モデルのポストトレーニングなど、より重要なタスクをサポートする。
このシステムは公開されており、さまざまな研究分野やAlibaba Cloud PAIのような現実世界の製品で広く採用されている。
論文 参考訳(メタデータ) (2024-12-23T08:29:57Z) - Beyond Tree Models: A Hybrid Model of KAN and gMLP for Large-Scale Financial Tabular Data [28.34587057844627]
TKGMLPは、浅いコルモゴロフ・アーノルドネットワークとGated Multilayer Perceptronを組み合わせた表型データのためのハイブリッドネットワークである。
我々は、TKGMLPを現実の信用スコアデータセットで検証し、最先端の結果を達成し、現在のベンチマークより優れています。
本稿では,財務データセットにおける数値的特徴の優位性に対処するために,数値的データのための新しい特徴符号化手法を提案する。
論文 参考訳(メタデータ) (2024-12-03T02:38:07Z) - A Survey on Deep Tabular Learning [0.0]
タブラルデータは、その不均一な性質と空間構造が欠如していることから、深層学習の独特な課題を提示する。
本調査では,早期完全接続ネットワーク(FCN)から,TabNet,SAINT,TabTranSELU,MambaNetといった先進アーキテクチャに至るまで,タブラルデータのディープラーニングモデルの進化を概観する。
論文 参考訳(メタデータ) (2024-10-15T20:08:08Z) - The Languini Kitchen: Enabling Language Modelling Research at Different
Scales of Compute [66.84421705029624]
本稿では,アクセル時間で測定された等価計算に基づくモデル比較を可能にする実験的プロトコルを提案する。
私たちは、既存の学術的ベンチマークを上回り、品質、多様性、文書の長さで上回る、大規模で多様で高品質な書籍データセットを前処理します。
この研究は、GPT-2アーキテクチャから派生したフィードフォワードモデルと、10倍のスループットを持つ新しいLSTMの形式でのリカレントモデルという2つのベースラインモデルも提供する。
論文 参考訳(メタデータ) (2023-09-20T10:31:17Z) - T1: Scaling Diffusion Probabilistic Fields to High-Resolution on Unified
Visual Modalities [69.16656086708291]
拡散確率場(DPF)は、距離空間上で定義された連続関数の分布をモデル化する。
本稿では,局所構造学習に着目したビューワイズサンプリングアルゴリズムによる新しいモデルを提案する。
モデルは、複数のモダリティを統一しながら、高解像度のデータを生成するためにスケールすることができる。
論文 参考訳(メタデータ) (2023-05-24T03:32:03Z) - Deep Autoencoding Topic Model with Scalable Hybrid Bayesian Inference [55.35176938713946]
我々は、ガンマ分布の階層構造を用いて、その多確率層生成ネットワークを構築するディープ・オートエンコーディング・トピック・モデル(DATM)を開発した。
Weibull上向き変分エンコーダを提案する。このエンコーダは深層ニューラルネットワークを介して情報を上向きに伝播し,次いで下向き生成モデルを提案する。
大規模コーパス上での教師なしおよび教師なしの学習タスクにおいて,モデルの有効性とスケーラビリティを実証した。
論文 参考訳(メタデータ) (2020-06-15T22:22:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。