論文の概要: Evaluating SAP RPT-1 for Enterprise Business Process Prediction: In-Context Learning vs. Traditional Machine Learning on Structured SAP Data
- arxiv url: http://arxiv.org/abs/2602.19237v1
- Date: Sun, 22 Feb 2026 15:29:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-24 17:42:02.543686
- Title: Evaluating SAP RPT-1 for Enterprise Business Process Prediction: In-Context Learning vs. Traditional Machine Learning on Structured SAP Data
- Title(参考訳): 企業業務プロセス予測のためのSAP RPT-1の評価:構造化SAPデータを用いたインコンテキスト学習と従来の機械学習
- Authors: Amit Lal,
- Abstract要約: 本稿では,SAPのRetrieval Pretrained Transformer (RPT-1) の実践的観点からの独立性評価について述べる。
RPT-1は64.6MBのコンパクトなモデルで、3100万のテーブルにまたがる1.34TBの構造化データに事前訓練されている。
3つのSAPビジネスシナリオにおいて、調整した勾配決定木(XGBoost、LightGBM、CatBoost)に対してベンチマークを行った。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Tabular foundation models aim to make machine learning accessible for enterprise data without task-specific training. This paper presents the first independent evaluation of SAP's Retrieval Pretrained Transformer (RPT-1) from a practitioner perspective. RPT-1 is a compact 64.6 MB model pretrained on 1.34 TB of structured data across 3.1 million tables. We benchmark it against tuned gradient-boosted decision trees (XGBoost, LightGBM, CatBoost) on three SAP business scenarios: demand forecasting across SD/MM/PP modules, predictive data integrity in BC/MM/QM, and financial risk classification in FI/CO/AR. Across five-fold cross-validation on datasets ranging from 2,500 to 3,200 rows, RPT-1 reaches 91-96% of tuned GBDT accuracy without any training examples. The classification gap is modest at 3.6-4.1 percentage points on AUC-ROC, though regression tasks show wider gaps of 8.9-11.1 percentage points on R-squared. An interesting finding is a crossover at roughly 75-100 context rows where RPT-1 actually outperforms XGBoost under limited data. Based on these results, we propose a practical hybrid workflow: use RPT-1 for rapid screening, then train GBDT selectively where prediction accuracy justifies the effort. All experiments are reproducible through publicly available Hugging Face Spaces.
- Abstract(参考訳): Tabularファウンデーションモデルは、タスク固有のトレーニングなしで、エンタープライズデータに機械学習をアクセスできるようにすることを目的としている。
本稿では,SAPのRetrieval Pretrained Transformer (RPT-1) の実践的観点からの独立性評価について述べる。
RPT-1は64.6MBのコンパクトなモデルで、3100万のテーブルにまたがる1.34TBの構造化データに事前訓練されている。
我々は、SD/MM/PPモジュール間の需要予測、BC/MM/QMにおける予測データの整合性、FI/CO/ARにおける財務リスク分類という3つのSAPビジネスシナリオについて、調整した勾配付き決定木(XGBoost、LightGBM、CatBoost)と比較した。
2500行から3,200行のデータセット上の5倍のクロスバリデーションで、RTT-1はトレーニング例なしでチューニングされたGBDTの精度の91-96%に達する。
分類の差はAUC-ROCで3.6-4.1ポイント、回帰処理では8.9-11.1ポイントである。
興味深い発見は、約75-100のコンテキスト行でのクロスオーバーであり、RTT-1は制限されたデータでXGBoostを実際に上回っている。
これらの結果に基づいて,RTT-1を高速スクリーニングに使用し,予測精度が正しければGBDTを選択的に訓練する,実用的なハイブリッドワークフローを提案する。
すべての実験は、公開のHugging Face Spacesを通じて再現可能である。
関連論文リスト
- A Comprehensive Forecasting-Based Framework for Time Series Anomaly Detection: Benchmarking on the Numenta Anomaly Benchmark (NAB) [0.0]
時系列異常検出は、現代のデジタルインフラにとって重要である。
本稿では,従来の手法をディープラーニングアーキテクチャと統合した予測ベースのフレームワークを提案する。
Numenta Anomaly Benchmark の最初の完全評価を行う。
論文 参考訳(メタデータ) (2025-10-13T08:31:42Z) - MobileLLM-R1: Exploring the Limits of Sub-Billion Language Model Reasoners with Open Training Recipes [60.57770396565211]
強い推論能力は、はるかに少ないデータで実現可能であることを示す。
MobileLLM-R50MのAIMEスコアは15.5であり、OLMo-2-1.48Bは0.6、SmolLM-2-1.7Bは0.3である。
論文 参考訳(メタデータ) (2025-09-29T15:43:59Z) - Drift-Resilient TabPFN: In-Context Learning Temporal Distribution Shifts on Tabular Data [39.40116554523575]
In-Context Learning with a Prior-Data Fitted Network に基づく新しいアプローチである Drift-Resilient TabPFN を提案する。
先行した合成データセットのベイズ推定を近似することを学ぶ。
精度は0.688から0.744に向上し、OC AUCは0.786から0.832に向上し、キャリブレーションも強化された。
論文 参考訳(メタデータ) (2024-11-15T23:49:23Z) - DataComp: In search of the next generation of multimodal datasets [179.79323076587255]
DataCompは、Common Crawlの128億の画像テキストペアの候補プールを中心にしたデータセット実験用のテストベッドである。
我々のベンチマークは、複数の計算スケールから成っている。
特に、最良のベースラインであるDataComp-1Bは、ImageNetでCLIP ViT-L/14をスクラッチから79.2%のゼロショット精度でトレーニングすることが可能です。
論文 参考訳(メタデータ) (2023-04-27T11:37:18Z) - A Meta-Learning Approach to Predicting Performance and Data Requirements [163.4412093478316]
本稿では,モデルが目標性能に達するために必要なサンプル数を推定する手法を提案する。
モデル性能を推定するデファクト原理であるパワー法則が,小さなデータセットを使用する場合の誤差が大きいことが判明した。
本稿では,2つのデータを異なる方法で処理するPPL法について紹介する。
論文 参考訳(メタデータ) (2023-03-02T21:48:22Z) - Evaluating Parameter Efficient Learning for Generation [32.52577462253145]
PERMとファインタニングを3つの新しい視点から比較する。
その結果、ドメイン内設定(a)では、PERMsがより少ないサンプルでトレーニングする際の微調整よりも優れた性能を示し、(b)より大きなPLMが存在することがわかった。
また、世代ごとの忠実度を比較し、特に小さなトレーニングセットにおいて、PERMsが微調整よりも忠実度を最大6%向上できることを示す。
論文 参考訳(メタデータ) (2022-10-25T00:14:48Z) - Exploring the Value of Pre-trained Language Models for Clinical Named
Entity Recognition [6.917786124918387]
我々は、スクラッチからトレーニングされたTransformerモデルと、細調整されたBERTベースのLLMを比較した。
文脈学習を促進するために,追加のCRF層がそのようなモデルに与える影響を検討する。
論文 参考訳(メタデータ) (2022-10-23T16:27:31Z) - Dataset Pruning: Reducing Training Data by Examining Generalization
Influence [30.30255670341501]
すべてのトレーニングデータは、モデルのパフォーマンスに寄与しますか?
モデルのパフォーマンスを著しく犠牲にすることなく、プロキシトレーニングセットとして、トレーニングデータ全体から最小限のサブセットを構築するには、どうすればよいのか?
論文 参考訳(メタデータ) (2022-05-19T05:36:35Z) - Self-Supervised Pre-Training for Transformer-Based Person
Re-Identification [54.55281692768765]
トランスフォーマーに基づく教師付き事前訓練は、人物再識別(ReID)において大きなパフォーマンスを達成する
ImageNetとReIDデータセットのドメインギャップのため、通常、パフォーマンスを高めるために、より大きなトレーニング済みデータセットが必要です。
この研究は、データとモデル構造の観点から、事前トレーニングデータセットとReIDデータセットのギャップを軽減することを目的としている。
論文 参考訳(メタデータ) (2021-11-23T18:59:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。