論文の概要: Light-Weight Benchmarks Reveal the Hidden Hardware Cost of Zero-Shot Tabular Foundation Models
- arxiv url: http://arxiv.org/abs/2512.00888v1
- Date: Sun, 30 Nov 2025 13:17:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-02 19:46:34.48555
- Title: Light-Weight Benchmarks Reveal the Hidden Hardware Cost of Zero-Shot Tabular Foundation Models
- Title(参考訳): 軽量ベンチマークがゼロショットタブラルファウンデーションモデルの隠れハードウェアコストを明らかに
- Authors: Aayam Bansal, Ishaan Gangwani,
- Abstract要約: テスト精度を,4つの公開データセット上でのウォールクロックレイテンシ,ピークCPURAM,ピークGPUVRAMとともに報告する。
2つのオープンFM(TabPFN-1.0とTabICL-base)を1つのNVIDIA T4 GPU上で調整されたXGBoost、LightGBM、ランダムフォレストベースラインと比較する。
ツリーアンサンブルは、0 VRAMを使用して、0.40 s = 150 MB RAMでフルテストバッチを完了しながら、3つのデータセットでFM精度を同等または超過する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Zero-shot foundation models (FMs) promise training-free prediction on tabular data, yet their hardware footprint remains poorly characterized. We present a fully reproducible benchmark that reports test accuracy together with wall-clock latency, peak CPU RAM, and peak GPU VRAM on four public datasets: Adult-Income, Higgs-100k, Wine-Quality, and California-Housing. Two open FMs (TabPFN-1.0 and TabICL-base) are compared against tuned XGBoost, LightGBM, and Random Forest baselines on a single NVIDIA T4 GPU. The tree ensembles equal or surpass FM accuracy on three datasets while completing full-test batches in <= 0.40 s and <= 150 MB RAM, using zero VRAM. TabICL achieves a 0.8 percentage-point gain on Higgs but requires roughly 40,000 times more latency (960 s) and 9 GB VRAM. TabPFN matches tree-model accuracy on Wine and Housing but peaks at 4 GB VRAM and cannot process the full 100k-row Higgs table. These results quantify the substantial hardware-versus-accuracy trade-offs in current tabular FMs and provide an open baseline for future efficiency-oriented research.
- Abstract(参考訳): ゼロショット基礎モデル(FM)は、表形式のデータに対するトレーニング不要な予測を約束するが、ハードウェアのフットプリントは依然として不十分である。
我々は、アダルト・インカム、ヒッグス・100k、ワイン・クオリティ、カリフォルニア・ハウジングの4つのパブリックデータセット上で、ウォールクロックレイテンシ、ピークCPU RAM、ピークGPU VRAMとともにテストの精度を報告する完全に再現可能なベンチマークを示す。
2つのオープンFM(TabPFN-1.0とTabICL-base)を1つのNVIDIA T4 GPU上で調整されたXGBoost、LightGBM、ランダムフォレストベースラインと比較する。
ツリーアンサンブルは3つのデータセットでFM精度を同等または上回り、0 VRAMを使用して、<= 0.40 s と <= 150 MB RAMでフルテストバッチを完了させる。
TabICLは、Higgsで0.8パーセントのゲインを達成するが、約40,000倍のレイテンシ(960 s)と9GBのVRAMを必要とする。
TabPFNはワインとハウジングのツリーモデルの精度と一致するが、ピークは4GB VRAMであり、フル100krow Higgsテーブルを処理できない。
これらの結果は、現在の表状FMにおけるハードウェア対精度のトレードオフを定量化し、将来の効率志向の研究のためのオープンベースラインを提供する。
関連論文リスト
- RFX: High-Performance Random Forests with GPU Acceleration and QLORA Compression [0.0]
RFX (Random Forests X) は、X が圧縮または量子化の略であり、Python で Breiman と Cutler の Random Forest 分類方法論のプロダクション対応の実装を提供する。
RFX v1.0は完全な分類を提供する:out-of-bagエラー推定、総合的および局所的重要度測定、QLORA圧縮による近接行列、ケースワイズ分析、インタラクティブ可視化(rfviz)。
回帰、教師なし学習、CLIQUEの重要性、RF-GAP近接はv2.0で計画されている。
論文 参考訳(メタデータ) (2025-11-23T12:00:33Z) - FuseSampleAgg: Fused Neighbor Sampling and Aggregation for Mini-batch GNNs [51.56484100374058]
FuseSampleAggは、隣人の平均アグリゲーションをGraphSAGEの1つのパスにフューズし、サンプリングする。
Operatorは決定論的であり、標準のPyTorchと統合され、CSVログからすべてのテーブルとフィギュアを再現するスクリプトが同梱されている。
論文 参考訳(メタデータ) (2025-11-17T17:57:18Z) - Profiling LoRA/QLoRA Fine-Tuning Efficiency on Consumer GPUs: An RTX 4060 Case Study [0.0]
LoRA や QLoRA のようなパラメータ効率のよい手法で微調整された大規模言語モデルは、控えめなハードウェアの適応を可能にしている。
本稿では,1台のNVIDIA GTX 4060上でのQwen2.5-1.5B-Instructモデルを用いたLoRA/QLoRAファインチューニングの制御プロファイリングについて述べる。
その結果,bf16はfp16と比較して効率が低下するのに対し,ページドではスループットが25%向上した(628 tok/s,500 tok/s)。
論文 参考訳(メタデータ) (2025-09-07T21:41:14Z) - GPU-Accelerated Interpretable Generalization for Rapid Cyberattack Detection and Forensics [0.0]
IGメカニズムは最近IEEE Transactions on Information Forensics and Securityで公開され、最先端のエビデンスベースの侵入検知を提供する。
我々は、PyTorchの再設計であるIG-GPUを紹介し、すべてのペアの交叉とサブセット評価をコモディティGPUにオフロードする。
15kレコードのNSL-KDDデータセットでは、IG-GPUはIGのマルチコアCPU実装よりも116倍のスピードアップを示している。
論文 参考訳(メタデータ) (2025-07-16T12:38:19Z) - MindGrab for BrainChop: Fast and Accurate Skull Stripping for Command Line and Browser [0.5983020804545164]
我々はパラメータとメモリ効率の深い完全畳み込みモデルであるMindGrabを開発した。
MindGrabはSynthStripデータセットから得られた606個のマルチモーダル成人脳スキャン(T1, T2, DWI, MRA, PDw MRI, EPI, CT, PET)を用いて評価した。
MindGrabは標準偏差(SD)1.6で95.9のDiceスコアを達成し、古典的手法よりも優れていた。
論文 参考訳(メタデータ) (2025-06-13T15:09:15Z) - HeadInfer: Memory-Efficient LLM Inference by Head-wise Offloading [79.38548165722229]
HEADINFERはKVキャッシュをCPURAMにオフロードするが、GPU上のトランスフォーマー層のKVキャッシュを完全に保存する必要はない。
HEADINFERはメモリフットプリントを大幅に削減し,計算効率を向上することを示した。
論文 参考訳(メタデータ) (2025-02-18T06:26:05Z) - INR-Arch: A Dataflow Architecture and Compiler for Arbitrary-Order
Gradient Computations in Implicit Neural Representation Processing [66.00729477511219]
計算グラフとして表される関数を考えると、従来のアーキテクチャはn階勾配を効率的に計算する上で困難に直面している。
InR-Archは,n階勾配の計算グラフをハードウェア最適化データフローアーキテクチャに変換するフレームワークである。
1.8-4.8x と 1.5-3.6x の高速化を CPU と GPU のベースラインと比較した結果を示す。
論文 参考訳(メタデータ) (2023-08-11T04:24:39Z) - FlexGen: High-Throughput Generative Inference of Large Language Models
with a Single GPU [89.2451963569343]
FlexGenは、単一のコモディティGPU上で大きな言語モデル(LLM)推論を実行するための世代エンジンである。
1つの16GB GPU上でOPT-175Bを実行する場合、FlexGenは最先端のオフロードシステムに比べてスループットが大幅に向上する。
HELMベンチマークでは、FlexGenは7つの代表サブシナリオに16GBのGPUで30Bモデルを21時間でベンチマークすることができる。
論文 参考訳(メタデータ) (2023-03-13T05:19:28Z) - Benchmarking Edge Computing Devices for Grape Bunches and Trunks
Detection using Accelerated Object Detection Single Shot MultiBox Deep
Learning Models [2.1922186455344796]
この研究は、オブジェクト検出のための異なるプラットフォームのパフォーマンスをリアルタイムでベンチマークする。
著者らは、自然なVineデータセットを使用して、RetinaNet ResNet-50を微調整した。
論文 参考訳(メタデータ) (2022-11-21T17:02:33Z) - MAPLE: Microprocessor A Priori for Latency Estimation [81.91509153539566]
現代のディープニューラルネットワークは、低レイテンシとエネルギー消費を示しながら最先端の精度を示す必要がある。
評価されたアーキテクチャのレイテンシの測定は、NASプロセスにかなりの時間を加えます。
転送学習やドメイン適応に依存しない推定用マイクロプロセッサAプライオリティを提案する。
論文 参考訳(メタデータ) (2021-11-30T03:52:15Z) - FastFlowNet: A Lightweight Network for Fast Optical Flow Estimation [81.76975488010213]
ディセンス光学フロー推定は、多くのロボットビジョンタスクで重要な役割を果たしています。
現在のネットワークはしばしば多くのパラメータを占有し、計算コストがかかる。
提案したFastFlowNetは、周知の粗大なやり方で、以下のイノベーションで機能する。
論文 参考訳(メタデータ) (2021-03-08T03:09:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。