論文の概要: TabRepo: A Large Scale Repository of Tabular Model Evaluations and its
AutoML Applications
- arxiv url: http://arxiv.org/abs/2311.02971v1
- Date: Mon, 6 Nov 2023 09:17:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-07 15:01:56.829149
- Title: TabRepo: A Large Scale Repository of Tabular Model Evaluations and its
AutoML Applications
- Title(参考訳): TabRepo: タブラルモデル評価の大規模リポジトリとそのAutoMLアプリケーション
- Authors: David Salinas and Nick Erickson
- Abstract要約: TabRepoは、モデル評価と予測の新しいデータセットである。
200データセットで評価された1206モデルの予測とメトリクスを含んでいる。
- 参考スコア(独自算出の注目度): 11.173301960468175
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce TabRepo, a new dataset of tabular model evaluations and
predictions. TabRepo contains the predictions and metrics of 1206 models
evaluated on 200 regression and classification datasets. We illustrate the
benefit of our datasets in multiple ways. First, we show that it allows to
perform analysis such as comparing Hyperparameter Optimization against current
AutoML systems while also considering ensembling at no cost by using
precomputed model predictions. Second, we show that our dataset can be readily
leveraged to perform transfer-learning. In particular, we show that applying
standard transfer-learning techniques allows to outperform current
state-of-the-art tabular systems in accuracy, runtime and latency.
- Abstract(参考訳): グラフモデル評価と予測の新しいデータセットであるTabRepoを紹介する。
TabRepoには、200の回帰と分類データセットで評価された1206モデルの予測とメトリクスが含まれている。
私たちはデータセットの利点を複数の方法で説明します。
まず,従来のAutoMLシステムとハイパーパラメータ最適化を比較し,事前計算したモデル予測を用いて,無コストでアンサンブルを検討できることを示す。
第2に、当社のデータセットが、転送学習に容易に活用できることを示します。
特に,標準的な伝達学習手法を用いることで,最先端の表計算システムを精度,実行時間,レイテンシで上回ることを示す。
関連論文リスト
- Scaling Experiments in Self-Supervised Cross-Table Representation
Learning [0.0]
本稿では,表層データや表層表現学習に適したトランスフォーマーアーキテクチャを提案する。
私たちのトレーニングアプローチでは、単一テーブルモデルとクロステーブルモデルの両方を対象としています。
提案手法のスケーリング動作を理解するため,約104ドルから107ドルのパラメータを含む,さまざまなサイズのモデルを訓練する。
論文 参考訳(メタデータ) (2023-09-29T15:48:38Z) - Retrieval-Based Transformer for Table Augmentation [14.460363647772745]
我々は、自動データラングリングに対する新しいアプローチを導入する。
本研究の目的は,行数や列数,データ計算などのテーブル拡張タスクに対処することである。
我々のモデルは、教師付き統計手法と最先端のトランスフォーマーベースモデルの両方より一貫して、実質的に優れています。
論文 参考訳(メタデータ) (2023-06-20T18:51:21Z) - Quick-Tune: Quickly Learning Which Pretrained Model to Finetune and How [62.467716468917224]
本稿では,最適事前学習モデルとハイパーパラメータを共同で探索し,微調整する手法を提案する。
本手法は,一連のデータセット上で,事前学習したモデルの性能に関する知識を伝達する。
得られたアプローチによって、新しいデータセットの正確な事前学習モデルを迅速に選択できることを実証的に実証する。
論文 参考訳(メタデータ) (2023-06-06T16:15:26Z) - Variational Factorization Machines for Preference Elicitation in
Large-Scale Recommender Systems [17.050774091903552]
本稿では, 標準のミニバッチ降下勾配を用いて容易に最適化できる因子化機械 (FM) の変分定式化を提案する。
提案アルゴリズムは,ユーザおよび項目パラメータに近似した後続分布を学習し,予測に対する信頼区間を導出する。
いくつかのデータセットを用いて、予測精度の点で既存の手法と同等または優れた性能を示す。
論文 参考訳(メタデータ) (2022-12-20T00:06:28Z) - A Memory Transformer Network for Incremental Learning [64.0410375349852]
本研究では,モデルが学習する時間とともに,新しいデータクラスが観察される学習環境であるクラスインクリメンタルラーニングについて検討する。
素直な問題定式化にもかかわらず、クラス増分学習への分類モデルの素直な適用は、これまで見られたクラスの「破滅的な忘れ込み」をもたらす。
これは、過去のデータのサブセットをメモリバンクに保存し、将来のタスクをトレーニングする際の忘れの防止にそれを活用することで、破滅的な忘れの問題を克服するものだ。
論文 参考訳(メタデータ) (2022-10-10T08:27:28Z) - MRCLens: an MRC Dataset Bias Detection Toolkit [82.44296974850639]
MRCLensは,ユーザがフルモデルをトレーニングする前に,バイアスが存在するかどうかを検出するツールキットである。
ツールキットの導入の便宜のために,MDCにおける共通バイアスの分類も提供する。
論文 参考訳(メタデータ) (2022-07-18T21:05:39Z) - fETSmcs: Feature-based ETS model component selection [8.99236558175168]
シミュレーションデータに基づく分類器の訓練によるETSモデル選択の効率的な手法を提案し, 与えられた時系列に対する適切なモデル成分の予測を行う。
提案手法は,広く使用されている予測競合データセットM4に対して,点予測と予測間隔の両面から評価する。
論文 参考訳(メタデータ) (2022-06-26T13:52:43Z) - HyperImpute: Generalized Iterative Imputation with Automatic Model
Selection [77.86861638371926]
カラムワイズモデルを適応的かつ自動的に構成するための一般化反復計算フレームワークを提案する。
既製の学習者,シミュレータ,インターフェースを備えた具体的な実装を提供する。
論文 参考訳(メタデータ) (2022-06-15T19:10:35Z) - Automatic Pharma News Categorization [0.0]
医薬情報科学に関連する23のニュースカテゴリからなるテキストデータセットを使用する。
分類タスクにおける複数変圧器モデルの微調整性能を比較した。
本稿では,最上位の個人予測器からなるアンサンブルモデルを提案する。
論文 参考訳(メタデータ) (2021-12-28T08:42:16Z) - Comparing Test Sets with Item Response Theory [53.755064720563]
我々は,18の事前学習トランスフォーマーモデルから予測した29のデータセットを個別のテスト例で評価した。
Quoref、HellaSwag、MC-TACOは最先端のモデルを区別するのに最適である。
また、QAMRやSQuAD2.0のようなQAデータセットに使用されるスパン選択タスク形式は、強いモデルと弱いモデルとの差別化に有効である。
論文 参考訳(メタデータ) (2021-06-01T22:33:53Z) - Meta-learning framework with applications to zero-shot time-series
forecasting [82.61728230984099]
この研究は幅広いメタラーニングフレームワークを使って肯定的な証拠を提供する。
残余接続はメタラーニング適応機構として機能する。
我々は、ソースTSデータセット上でニューラルネットワークをトレーニングし、異なるターゲットTSデータセット上で再トレーニングすることなくデプロイできることを示します。
論文 参考訳(メタデータ) (2020-02-07T16:39:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。