論文の概要: A Meta-Learning Approach to Predicting Performance and Data Requirements
- arxiv url: http://arxiv.org/abs/2303.01598v1
- Date: Thu, 2 Mar 2023 21:48:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-06 16:46:55.895618
- Title: A Meta-Learning Approach to Predicting Performance and Data Requirements
- Title(参考訳): メタ学習による性能とデータ要求の予測
- Authors: Achin Jain, Gurumurthy Swaminathan, Paolo Favaro, Hao Yang, Avinash
Ravichandran, Hrayr Harutyunyan, Alessandro Achille, Onkar Dabeer, Bernt
Schiele, Ashwin Swaminathan, Stefano Soatto
- Abstract要約: 本稿では,モデルが目標性能に達するために必要なサンプル数を推定する手法を提案する。
モデル性能を推定するデファクト原理であるパワー法則が,小さなデータセットを使用する場合の誤差が大きいことが判明した。
本稿では,2つのデータを異なる方法で処理するPPL法について紹介する。
- 参考スコア(独自算出の注目度): 163.4412093478316
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose an approach to estimate the number of samples required for a model
to reach a target performance. We find that the power law, the de facto
principle to estimate model performance, leads to large error when using a
small dataset (e.g., 5 samples per class) for extrapolation. This is because
the log-performance error against the log-dataset size follows a nonlinear
progression in the few-shot regime followed by a linear progression in the
high-shot regime. We introduce a novel piecewise power law (PPL) that handles
the two data regimes differently. To estimate the parameters of the PPL, we
introduce a random forest regressor trained via meta learning that generalizes
across classification/detection tasks, ResNet/ViT based architectures, and
random/pre-trained initializations. The PPL improves the performance estimation
on average by 37% across 16 classification and 33% across 10 detection
datasets, compared to the power law. We further extend the PPL to provide a
confidence bound and use it to limit the prediction horizon that reduces
over-estimation of data by 76% on classification and 91% on detection datasets.
- Abstract(参考訳): 本稿では,モデルが目標性能に達するために必要なサンプル数を推定する手法を提案する。
モデル性能を推定するデファクト原理であるパワー法則は、外挿のために小さなデータセット(例:クラス毎に5つのサンプル)を使用する場合、大きな誤差をもたらす。
これは、ログデータセットサイズに対するログパフォーマンスエラーが、マイナショットレジームにおける非線形進行と、ハイショットレジームでの線形進行に続くためである。
本稿では,2つのデータ構造を異なる方法で処理するPPL法を提案する。
PPL のパラメータを推定するために,分類/検出タスク,ResNet/ViT ベースのアーキテクチャ,ランダム/事前学習初期化を対象とする,メタラーニングにより訓練されたランダムフォレスト回帰器を導入する。
PPLは、電力法と比較して、16の分類で平均37%、10の検出データセットで平均33%の性能評価を改善している。
さらに,pplの拡張により信頼度が向上し,分類で76%,検出データセットで91%の過大評価を減少させる予測地平線を制限する。
関連論文リスト
- Scaling Laws for Predicting Downstream Performance in LLMs [75.28559015477137]
この研究は、性能評価のためのより効率的な指標として、事前学習損失に焦点を当てている。
我々は、データソース間のFLOPに基づいて、ドメイン固有の事前学習損失を予測するために、電力法解析関数を拡張した。
我々は2層ニューラルネットワークを用いて、複数のドメイン固有の損失と下流性能の非線形関係をモデル化する。
論文 参考訳(メタデータ) (2024-10-11T04:57:48Z) - F-FOMAML: GNN-Enhanced Meta-Learning for Peak Period Demand Forecasting with Proxy Data [65.6499834212641]
本稿では,需要予測をメタラーニング問題として定式化し,F-FOMAMLアルゴリズムを開発した。
タスク固有のメタデータを通してドメインの類似性を考慮することにより、トレーニングタスクの数が増加するにつれて過剰なリスクが減少する一般化を改善した。
従来の最先端モデルと比較して,本手法では需要予測精度が著しく向上し,内部自動販売機データセットでは平均絶対誤差が26.24%,JD.comデータセットでは1.04%削減された。
論文 参考訳(メタデータ) (2024-06-23T21:28:50Z) - It's all about PR -- Smart Benchmarking AI Accelerators using Performance Representatives [40.197673152937256]
統計性能モデルのトレーニングは、しばしば大量のデータを必要とするため、かなりの時間的投資となり、ハードウェアの可用性が制限された場合に困難になる。
本稿では,精度を保ちながらトレーニングサンプル数を著しく削減する性能モデリング手法を提案する。
その結果,単層推定では0.02%,トレーニングサンプル10000点未満では0.68%という平均絶対誤差(MAPE)が得られた。
論文 参考訳(メタデータ) (2024-06-12T15:34:28Z) - Few-Shot Load Forecasting Under Data Scarcity in Smart Grids: A Meta-Learning Approach [0.18641315013048293]
本稿では,短期負荷予測のためのモデルに依存しないメタ学習アルゴリズムを提案する。
提案手法は,任意の長さの未知の負荷時間列に迅速に適応し,一般化することができる。
提案手法は,実世界の消費者の歴史的負荷消費データのデータセットを用いて評価する。
論文 参考訳(メタデータ) (2024-06-09T18:59:08Z) - Stratified Prediction-Powered Inference for Hybrid Language Model Evaluation [62.2436697657307]
予測駆動推論(英: Prediction-powered Inference, PPI)は、人間ラベル付き限られたデータに基づいて統計的推定を改善する手法である。
我々はStratPPI(Stratified Prediction-Powered Inference)という手法を提案する。
単純なデータ階層化戦略を用いることで,基礎的なPPI推定精度を大幅に向上できることを示す。
論文 参考訳(メタデータ) (2024-06-06T17:37:39Z) - Sequential Learning Of Neural Networks for Prequential MDL [18.475866691786695]
ニューラルネットワークを用いた画像分類データセットの事前記述長の計算手法を評価する。
計算コストを考慮すると、リハーサルによるオンライン学習は好成績であることがわかった。
本稿では,画像分類データセットの集合に対する記述長について述べる。
論文 参考訳(メタデータ) (2022-10-14T16:30:23Z) - Learning to be a Statistician: Learned Estimator for Number of Distinct
Values [54.629042119819744]
列内の異なる値の数(NDV)を推定することは、データベースシステムにおける多くのタスクに有用である。
本研究では、ランダム(オンライン/オフライン)サンプルから正確なNDV推定を導出する方法に焦点を当てる。
教師付き学習フレームワークにおいて,NDV推定タスクを定式化し,モデルを推定対象として学習することを提案する。
論文 参考訳(メタデータ) (2022-02-06T15:42:04Z) - Self-Supervised Pre-Training for Transformer-Based Person
Re-Identification [54.55281692768765]
トランスフォーマーに基づく教師付き事前訓練は、人物再識別(ReID)において大きなパフォーマンスを達成する
ImageNetとReIDデータセットのドメインギャップのため、通常、パフォーマンスを高めるために、より大きなトレーニング済みデータセットが必要です。
この研究は、データとモデル構造の観点から、事前トレーニングデータセットとReIDデータセットのギャップを軽減することを目的としている。
論文 参考訳(メタデータ) (2021-11-23T18:59:08Z) - Complementary Ensemble Learning [1.90365714903665]
我々は最先端のディープラーニングモデルの性能向上手法を考案した。
具体的には、最先端モデルの不確実性を補完できる補助モデルを訓練する。
論文 参考訳(メタデータ) (2021-11-09T03:23:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。