論文の概要: A Meta-Learning Approach to Predicting Performance and Data Requirements
- arxiv url: http://arxiv.org/abs/2303.01598v1
- Date: Thu, 2 Mar 2023 21:48:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-06 16:46:55.895618
- Title: A Meta-Learning Approach to Predicting Performance and Data Requirements
- Title(参考訳): メタ学習による性能とデータ要求の予測
- Authors: Achin Jain, Gurumurthy Swaminathan, Paolo Favaro, Hao Yang, Avinash
Ravichandran, Hrayr Harutyunyan, Alessandro Achille, Onkar Dabeer, Bernt
Schiele, Ashwin Swaminathan, Stefano Soatto
- Abstract要約: 本稿では,モデルが目標性能に達するために必要なサンプル数を推定する手法を提案する。
モデル性能を推定するデファクト原理であるパワー法則が,小さなデータセットを使用する場合の誤差が大きいことが判明した。
本稿では,2つのデータを異なる方法で処理するPPL法について紹介する。
- 参考スコア(独自算出の注目度): 163.4412093478316
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose an approach to estimate the number of samples required for a model
to reach a target performance. We find that the power law, the de facto
principle to estimate model performance, leads to large error when using a
small dataset (e.g., 5 samples per class) for extrapolation. This is because
the log-performance error against the log-dataset size follows a nonlinear
progression in the few-shot regime followed by a linear progression in the
high-shot regime. We introduce a novel piecewise power law (PPL) that handles
the two data regimes differently. To estimate the parameters of the PPL, we
introduce a random forest regressor trained via meta learning that generalizes
across classification/detection tasks, ResNet/ViT based architectures, and
random/pre-trained initializations. The PPL improves the performance estimation
on average by 37% across 16 classification and 33% across 10 detection
datasets, compared to the power law. We further extend the PPL to provide a
confidence bound and use it to limit the prediction horizon that reduces
over-estimation of data by 76% on classification and 91% on detection datasets.
- Abstract(参考訳): 本稿では,モデルが目標性能に達するために必要なサンプル数を推定する手法を提案する。
モデル性能を推定するデファクト原理であるパワー法則は、外挿のために小さなデータセット(例:クラス毎に5つのサンプル)を使用する場合、大きな誤差をもたらす。
これは、ログデータセットサイズに対するログパフォーマンスエラーが、マイナショットレジームにおける非線形進行と、ハイショットレジームでの線形進行に続くためである。
本稿では,2つのデータ構造を異なる方法で処理するPPL法を提案する。
PPL のパラメータを推定するために,分類/検出タスク,ResNet/ViT ベースのアーキテクチャ,ランダム/事前学習初期化を対象とする,メタラーニングにより訓練されたランダムフォレスト回帰器を導入する。
PPLは、電力法と比較して、16の分類で平均37%、10の検出データセットで平均33%の性能評価を改善している。
さらに,pplの拡張により信頼度が向上し,分類で76%,検出データセットで91%の過大評価を減少させる予測地平線を制限する。
関連論文リスト
- Minimally Supervised Learning using Topological Projections in
Self-Organizing Maps [55.31182147885694]
自己組織化マップ(SOM)におけるトポロジカルプロジェクションに基づく半教師付き学習手法を提案する。
提案手法は,まずラベル付きデータ上でSOMを訓練し,最小限のラベル付きデータポイントをキーベストマッチングユニット(BMU)に割り当てる。
提案した最小教師付きモデルが従来の回帰手法を大幅に上回ることを示す。
論文 参考訳(メタデータ) (2024-01-12T22:51:48Z) - Sequential Learning Of Neural Networks for Prequential MDL [18.475866691786695]
ニューラルネットワークを用いた画像分類データセットの事前記述長の計算手法を評価する。
計算コストを考慮すると、リハーサルによるオンライン学習は好成績であることがわかった。
本稿では,画像分類データセットの集合に対する記述長について述べる。
論文 参考訳(メタデータ) (2022-10-14T16:30:23Z) - Learning to be a Statistician: Learned Estimator for Number of Distinct
Values [54.629042119819744]
列内の異なる値の数(NDV)を推定することは、データベースシステムにおける多くのタスクに有用である。
本研究では、ランダム(オンライン/オフライン)サンプルから正確なNDV推定を導出する方法に焦点を当てる。
教師付き学習フレームワークにおいて,NDV推定タスクを定式化し,モデルを推定対象として学習することを提案する。
論文 参考訳(メタデータ) (2022-02-06T15:42:04Z) - Improved Fine-tuning by Leveraging Pre-training Data: Theory and
Practice [52.11183787786718]
対象データに事前学習されたモデルを微調整することは、多くのディープラーニングアプリケーションで広く利用されている。
近年の研究では、スクラッチからのトレーニングが、この事前トレーニング戦略に比較して、最終的なパフォーマンスを示すことが実証されている。
本稿では,対象タスクの一般化を改善するために,事前学習データからサブセットを選択する新しい選択戦略を提案する。
論文 参考訳(メタデータ) (2021-11-24T06:18:32Z) - Self-Supervised Pre-Training for Transformer-Based Person
Re-Identification [54.55281692768765]
トランスフォーマーに基づく教師付き事前訓練は、人物再識別(ReID)において大きなパフォーマンスを達成する
ImageNetとReIDデータセットのドメインギャップのため、通常、パフォーマンスを高めるために、より大きなトレーニング済みデータセットが必要です。
この研究は、データとモデル構造の観点から、事前トレーニングデータセットとReIDデータセットのギャップを軽減することを目的としている。
論文 参考訳(メタデータ) (2021-11-23T18:59:08Z) - Complementary Ensemble Learning [1.90365714903665]
我々は最先端のディープラーニングモデルの性能向上手法を考案した。
具体的には、最先端モデルの不確実性を補完できる補助モデルを訓練する。
論文 参考訳(メタデータ) (2021-11-09T03:23:05Z) - Random vector functional link neural network based ensemble deep
learning for short-term load forecasting [14.184042046855884]
本稿では,電力負荷予測のための新しいアンサンブルディープランダム関数リンク(edRVFL)を提案する。
隠されたレイヤは、深い表現学習を強制するために積み上げられます。
モデルは各層の出力をアンサンブルすることで予測を生成する。
論文 参考訳(メタデータ) (2021-07-30T01:20:48Z) - Exploring Bayesian Surprise to Prevent Overfitting and to Predict Model
Performance in Non-Intrusive Load Monitoring [25.32973996508579]
非侵入負荷モニタリング(Non-Intrusive Load Monitoring, NILM)は、集積信号のみに基づくシステムにおける構成的電気負荷の分離に焦点を当てた研究分野である。
予測分布(予測的サプライズ)と遷移確率(遷移的サプライズ)の間のサプライズ度を定量化する。
この研究は、データセットサイズに関するモデルパフォーマンスのリターンを減少させるポイントが存在するという明確な証拠を提供する。
論文 参考訳(メタデータ) (2020-09-16T15:39:08Z) - Meta-Learned Confidence for Few-shot Learning [60.6086305523402]
数ショットのメトリックベースのアプローチのための一般的なトランスダクティブ推論手法は、最も確実なクエリ例の平均で、各クラスのプロトタイプを更新することである。
本稿では,各クエリの信頼度をメタラーニングして,ラベルのないクエリに最適な重みを割り当てる手法を提案する。
4つのベンチマークデータセットに対してメタ学習の信頼度で、少数ショットの学習モデルを検証した。
論文 参考訳(メタデータ) (2020-02-27T10:22:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。