論文の概要: Effective Non-Random Extreme Learning Machine
- arxiv url: http://arxiv.org/abs/2411.16229v1
- Date: Mon, 25 Nov 2024 09:42:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-26 14:23:59.784746
- Title: Effective Non-Random Extreme Learning Machine
- Title(参考訳): 効率的な非ランダム極端学習マシン
- Authors: Daniela De Canditiis, Fabiano Veglianti,
- Abstract要約: 本稿では、回帰タスクのための新しい拡張学習アルゴリズム、Effective Non-Random ELM(ENR-ELM)を提案する。
提案手法は,基本関数や投影などの信号処理の概念をEMMフレームワークに組み込む。
合成データと実データの両方を用いた実験結果から,本手法は従来のEMMの課題を克服し,比較可能な予測性能を維持していることが示された。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: The Extreme Learning Machine (ELM) is a growing statistical technique widely applied to regression problems. In essence, ELMs are single-layer neural networks where the hidden layer weights are randomly sampled from a specific distribution, while the output layer weights are learned from the data. Two of the key challenges with this approach are the architecture design, specifically determining the optimal number of neurons in the hidden layer, and the method's sensitivity to the random initialization of hidden layer weights. This paper introduces a new and enhanced learning algorithm for regression tasks, the Effective Non-Random ELM (ENR-ELM), which simplifies the architecture design and eliminates the need for random hidden layer weight selection. The proposed method incorporates concepts from signal processing, such as basis functions and projections, into the ELM framework. We introduce two versions of the ENR-ELM: the approximated ENR-ELM and the incremental ENR-ELM. Experimental results on both synthetic and real datasets demonstrate that our method overcomes the problems of traditional ELM while maintaining comparable predictive performance.
- Abstract(参考訳): ELM(Extreme Learning Machine)は、回帰問題に広く応用される統計手法である。
本質的には、EMMは特定の分布から隠れた層重みをランダムにサンプリングし、出力層重みをデータから学習する単一層ニューラルネットワークである。
このアプローチの主な課題の2つは、アーキテクチャ設計、特に隠蔽層内のニューロンの最適数を決定することと、隠蔽層重みのランダム初期化に対する方法の感度である。
本稿では, アーキテクチャ設計を単純化し, ランダムな隠蔽層重み選択の必要性を解消する, 回帰タスクのための新しい拡張学習アルゴリズムであるEffective Non-Random ELM (ENR-ELM)を提案する。
提案手法は,基本関数や投影などの信号処理の概念をEMMフレームワークに組み込む。
本稿では, ENR-ELM の2つのバージョン, 近似 ENR-ELM と増分 ENR-ELM を紹介する。
合成データと実データの両方を用いた実験結果から,本手法は従来のEMMの課題を克服し,比較可能な予測性能を維持していることが示された。
関連論文リスト
- A Multi-Head Ensemble Multi-Task Learning Approach for Dynamical
Computation Offloading [62.34538208323411]
共有バックボーンと複数の予測ヘッド(PH)を組み合わせたマルチヘッドマルチタスク学習(MEMTL)手法を提案する。
MEMTLは、追加のトレーニングデータを必要とせず、推測精度と平均平方誤差の両方でベンチマーク手法より優れている。
論文 参考訳(メタデータ) (2023-09-02T11:01:16Z) - A distribution-free mixed-integer optimization approach to hierarchical modelling of clustered and longitudinal data [0.0]
我々は,新しいデータポイントに対するクラスタ効果を評価する革新的なアルゴリズムを導入し,このモデルのロバスト性や精度を高める。
このアプローチの推論的および予測的効果は、学生のスコアリングとタンパク質発現に適用することでさらに説明される。
論文 参考訳(メタデータ) (2023-02-06T23:34:51Z) - Numerical Computation of Partial Differential Equations by Hidden-Layer
Concatenated Extreme Learning Machine [0.0]
極学習機械(ELM)法は線形・非線形偏微分方程式(PDE)に対する高精度な解が得られる
ELM法では、ニューラルネットワークの最後の隠蔽層を広くして高い精度を達成する必要がある。
本稿では, HLConcELM (hidden-layerd ELM) と呼ばれる改良型EMM法を提案する。
論文 参考訳(メタデータ) (2022-04-24T22:39:06Z) - Accurate Discharge Coefficient Prediction of Streamlined Weirs by
Coupling Linear Regression and Deep Convolutional Gated Recurrent Unit [2.4475596711637433]
本研究では,CFDシミュレーションに代わるデータ駆動モデリング手法を提案する。
提案した3層階層型DLアルゴリズムは,後続の2つのGRUレベルを結合した畳み込み層で構成されており,LR法とハイブリダイゼーションすることで,誤差の低減につながることがわかった。
論文 参考訳(メタデータ) (2022-04-12T01:59:36Z) - Mixed Precision Low-bit Quantization of Neural Network Language Models
for Speech Recognition [67.95996816744251]
長期間のメモリリカレントニューラルネットワーク(LSTM-RNN)とトランスフォーマーで表される最先端言語モデル(LM)は、実用アプリケーションではますます複雑で高価なものになりつつある。
現在の量子化法は、均一な精度に基づいており、量子化誤差に対するLMの異なる部分での様々な性能感度を考慮できない。
本稿では,新しい混合精度ニューラルネットワークLM量子化法を提案する。
論文 参考訳(メタデータ) (2021-11-29T12:24:02Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z) - Energy-Efficient and Federated Meta-Learning via Projected Stochastic
Gradient Ascent [79.58680275615752]
エネルギー効率のよいメタラーニングフレームワークを提案する。
各タスクは別々のエージェントによって所有されていると仮定するため、メタモデルをトレーニングするために限られたタスクが使用される。
論文 参考訳(メタデータ) (2021-05-31T08:15:44Z) - Research of Damped Newton Stochastic Gradient Descent Method for Neural
Network Training [6.231508838034926]
勾配降下(SGD)のような一階法は、最近ディープニューラルネットワーク(DNN)を訓練するための一般的な最適化方法です。
本稿では、平均二乗誤差(MSE)の回帰問題とクロスエントロピー損失(CEL)の分類問題に対するDNNの訓練方法として、DN-SGD(Damped Newton Descent)とGGD-DN(Gradient Descent Damped Newton)を提案する。
提案手法はパラメータのごく一部を正確に計算し,計算コストを大幅に削減し,sgdよりも高速かつ高精度な学習プロセスを実現する。
論文 参考訳(メタデータ) (2021-03-31T02:07:18Z) - Rank Based Pseudoinverse Computation in Extreme Learning Machine for
Large Datasets [0.0]
ELM(Extreme Learning Machine)は、単一層フィードフォワードニューラルネットワーク(SLFN)に基づく分類、回帰問題に対する効率的かつ効果的な最小二乗学習アルゴリズムである。
本稿では,隠蔽層行列の新しい階数に基づく行列分解を行い,最適トレーニング時間と,隠蔽層内の多数の隠蔽ノードの計算複雑性を低減した。
論文 参考訳(メタデータ) (2020-11-04T17:34:01Z) - Understanding Self-supervised Learning with Dual Deep Networks [74.92916579635336]
本稿では,2組の深層ReLUネットワークを用いたコントラスト型自己教師学習(SSL)手法を理解するための新しい枠組みを提案する。
種々の損失関数を持つSimCLRの各SGD更新において、各層の重みは共分散演算子によって更新されることを示す。
共分散演算子の役割と、そのようなプロセスでどのような特徴が学習されるかをさらに研究するために、我々は、階層的潜在木モデル(HLTM)を用いて、データ生成および増大過程をモデル化する。
論文 参考訳(メタデータ) (2020-10-01T17:51:49Z) - Optimization-driven Machine Learning for Intelligent Reflecting Surfaces
Assisted Wireless Networks [82.33619654835348]
インテリジェントサーフェス(IRS)は、個々の散乱素子の位相シフトを制御して無線チャネルを再形成するために用いられる。
散乱素子の規模が大きいため、受動ビームフォーミングは一般に高い計算複雑性によって挑戦される。
本稿では、IRS支援無線ネットワークの性能向上のための機械学習(ML)アプローチに焦点を当てる。
論文 参考訳(メタデータ) (2020-08-29T08:39:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。