論文の概要: Benchmarking Learning Efficiency in Deep Reservoir Computing
- arxiv url: http://arxiv.org/abs/2210.02549v1
- Date: Thu, 29 Sep 2022 08:16:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-09 17:01:37.410110
- Title: Benchmarking Learning Efficiency in Deep Reservoir Computing
- Title(参考訳): 深部貯留層計算における学習効率のベンチマーク
- Authors: Hugo Cisneros, Josef Sivic, Tomas Mikolov
- Abstract要約: 我々は、機械学習モデルがトレーニングデータからいかに早く学習するかを測定するために、データ効率の指標とともに、ますます困難なタスクのベンチマークを導入する。
我々は、RNN、LSTM、Transformersなどの確立された逐次教師付きモデルの学習速度を、貯水池計算に基づく比較的知られていない代替モデルと比較する。
- 参考スコア(独自算出の注目度): 23.753943709362794
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: It is common to evaluate the performance of a machine learning model by
measuring its predictive power on a test dataset. This approach favors
complicated models that can smoothly fit complex functions and generalize well
from training data points. Although essential components of intelligence, speed
and data efficiency of this learning process are rarely reported or compared
between different candidate models. In this paper, we introduce a benchmark of
increasingly difficult tasks together with a data efficiency metric to measure
how quickly machine learning models learn from training data. We compare the
learning speed of some established sequential supervised models, such as RNNs,
LSTMs, or Transformers, with relatively less known alternative models based on
reservoir computing. The proposed tasks require a wide range of computational
primitives, such as memory or the ability to compute Boolean functions, to be
effectively solved. Surprisingly, we observe that reservoir computing systems
that rely on dynamically evolving feature maps learn faster than fully
supervised methods trained with stochastic gradient optimization while
achieving comparable accuracy scores. The code, benchmark, trained models, and
results to reproduce our experiments are available at
https://github.com/hugcis/benchmark_learning_efficiency/ .
- Abstract(参考訳): テストデータセット上の予測能力を測定することにより、機械学習モデルの性能を評価することが一般的である。
このアプローチは、複雑な関数にスムーズに適合し、訓練データポイントからうまく一般化できる複雑なモデルを好む。
知能の必須成分であるが、この学習プロセスの速度とデータ効率は、異なる候補モデル間で報告または比較されることは滅多にない。
本稿では、機械学習モデルがトレーニングデータから学習する速度を測定するために、データ効率指標と共に、ますます難しいタスクのベンチマークを紹介する。
rnn,lstm,transformerなどの確立された逐次教師付きモデルの学習速度を,貯水池計算に基づく比較的知られていない代替モデルと比較した。
提案したタスクは、メモリやブール関数の計算能力など、幅広い計算プリミティブを効果的に解く必要がある。
驚くべきことに、動的に進化する機能マップに依存する貯留層計算システムは、確率的勾配最適化で訓練された完全な教師付き手法よりも高速に学習し、同等の精度スコアを得る。
実験を再現するためのコード、ベンチマーク、トレーニングされたモデル、結果は、https://github.com/hugcis/benchmark_learning_efficiency/で閲覧できます。
関連論文リスト
- Data Augmentation for Sparse Multidimensional Learning Performance Data Using Generative AI [17.242331892899543]
学習パフォーマンスデータは、適応学習における正しい解答や問題解決の試みを記述している。
学習性能データは、適応的なアイテム選択のため、ほとんどの実世界のアプリケーションでは、非常にスパースな(80%(sim)90%の欠落)傾向にある。
本稿では,学習者のデータの分散性に対処するために,学習者のデータを拡張するための体系的フレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-24T00:25:07Z) - Robust Learning with Progressive Data Expansion Against Spurious
Correlation [65.83104529677234]
本研究では,2層非線形畳み込みニューラルネットワークの学習過程について検討した。
分析の結果,不均衡なデータ群と学習容易なスプリアス特徴が学習過程におけるスプリアス特徴の優位性に繋がる可能性が示唆された。
本稿では,PDEと呼ばれる新たなトレーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-06-08T05:44:06Z) - Performance and Energy Consumption of Parallel Machine Learning
Algorithms [0.0]
機械学習モデルは、様々な現実世界のアプリケーションで顕著な成功を収めた。
機械学習のモデルトレーニングには、大規模データセットと複数のイテレーションが必要である。
トレーニングアルゴリズムの並列化は、トレーニングのプロセスを高速化するための一般的な戦略である。
論文 参考訳(メタデータ) (2023-05-01T13:04:39Z) - An Entropy-Based Model for Hierarchical Learning [3.1473798197405944]
実世界のデータセットに共通する特徴は、データドメインがマルチスケールであることである。
本稿では,このマルチスケールデータ構造を利用した学習モデルを提案する。
階層的な学習モデルは、人間の論理的かつ進歩的な学習メカニズムにインスパイアされている。
論文 参考訳(メタデータ) (2022-12-30T13:14:46Z) - Towards Robust Dataset Learning [90.2590325441068]
本稿では,頑健なデータセット学習問題を定式化するための三段階最適化法を提案する。
ロバストな特徴と非ロバストな特徴を特徴付ける抽象モデルの下で,提案手法はロバストなデータセットを確実に学習する。
論文 参考訳(メタデータ) (2022-11-19T17:06:10Z) - Incremental Online Learning Algorithms Comparison for Gesture and Visual
Smart Sensors [68.8204255655161]
本稿では,加速度センサデータに基づくジェスチャー認識と画像分類の2つの実例として,最先端の4つのアルゴリズムを比較した。
以上の結果から,これらのシステムの信頼性と小型メモリMCUへのデプロイの可能性が確認された。
論文 参考訳(メタデータ) (2022-09-01T17:05:20Z) - ALBench: A Framework for Evaluating Active Learning in Object Detection [102.81795062493536]
本稿では、オブジェクト検出におけるアクティブラーニングを評価するために、ALBenchという名前のアクティブラーニングベンチマークフレームワークをコントリビュートする。
自動深層モデルトレーニングシステム上で開発されたこのALBenchフレームワークは、使いやすく、さまざまなアクティブな学習アルゴリズムと互換性があり、同じトレーニングおよびテストプロトコルを保証する。
論文 参考訳(メタデータ) (2022-07-27T07:46:23Z) - HyperImpute: Generalized Iterative Imputation with Automatic Model
Selection [77.86861638371926]
カラムワイズモデルを適応的かつ自動的に構成するための一般化反復計算フレームワークを提案する。
既製の学習者,シミュレータ,インターフェースを備えた具体的な実装を提供する。
論文 参考訳(メタデータ) (2022-06-15T19:10:35Z) - Training Efficiency and Robustness in Deep Learning [2.6451769337566406]
ディープラーニングモデルのトレーニング効率と堅牢性を改善するためのアプローチについて検討する。
より情報的なトレーニングデータに基づく学習の優先順位付けは収束速度を高め、テストデータに対する一般化性能を向上させる。
トレーニングデータのサンプリングに対する冗長性を考慮した修正により、トレーニング速度が向上し、トレーニング信号の多様性を検出する効率的な方法が開発されていることを示す。
論文 参考訳(メタデータ) (2021-12-02T17:11:33Z) - Learnability of Learning Performance and Its Application to Data
Valuation [11.78594243870616]
ほとんどの機械学習(ML)タスクでは、与えられたデータセットで学習パフォーマンスを評価するには、集中的な計算が必要である。
学習性能を効率的に推定する能力は、アクティブラーニング、データ品質管理、データバリュエーションといった幅広いアプリケーションに恩恵をもたらす可能性がある。
最近の実証研究では、多くの一般的なMLモデルに対して、少量のサンプルを用いて任意の入力データセットの学習性能を予測するパラメトリックモデルを正確に学習できることが示されている。
論文 参考訳(メタデータ) (2021-07-13T18:56:04Z) - ALT-MAS: A Data-Efficient Framework for Active Testing of Machine
Learning Algorithms [58.684954492439424]
少量のラベル付きテストデータのみを用いて機械学習モデルを効率的にテストする新しいフレームワークを提案する。
ベイズニューラルネットワーク(bnn)を用いたモデルアンダーテストの関心指標の推定が目的である。
論文 参考訳(メタデータ) (2021-04-11T12:14:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。