論文の概要: Using Fitness Dependent Optimizer for Training Multi-layer Perceptron
- arxiv url: http://arxiv.org/abs/2201.00563v1
- Date: Mon, 3 Jan 2022 10:23:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-02 09:57:04.640657
- Title: Using Fitness Dependent Optimizer for Training Multi-layer Perceptron
- Title(参考訳): 適応依存型オプティマイザを用いた多層パーセプトロンの学習
- Authors: Dosti Kh. Abbas, Tarik A. Rashid, Karmand H. Abdallaand Nebojsa
Bacanin, Abeer Alsadoon
- Abstract要約: 本研究は、最近提案されたFDO(Fitness Dependent)に依存する新しいトレーニングアルゴリズムを提案する。
このアルゴリズムの安定性は、探索と搾取の両方の段階で検証され、性能が保証されている。
FDOをトレーナーとして使用するアプローチは、データセット上で異なるトレーナーを使用して他のアプローチよりも優れている。
- 参考スコア(独自算出の注目度): 13.280383503879158
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This study presents a novel training algorithm depending upon the recently
proposed Fitness Dependent Optimizer (FDO). The stability of this algorithm has
been verified and performance-proofed in both the exploration and exploitation
stages using some standard measurements. This influenced our target to gauge
the performance of the algorithm in training multilayer perceptron neural
networks (MLP). This study combines FDO with MLP (codename FDO-MLP) for
optimizing weights and biases to predict outcomes of students. This study can
improve the learning system in terms of the educational background of students
besides increasing their achievements. The experimental results of this
approach are affirmed by comparing with the Back-Propagation algorithm (BP) and
some evolutionary models such as FDO with cascade MLP (FDO-CMLP), Grey Wolf
Optimizer (GWO) combined with MLP (GWO-MLP), modified GWO combined with MLP
(MGWO-MLP), GWO with cascade MLP (GWO-CMLP), and modified GWO with cascade MLP
(MGWO-CMLP). The qualitative and quantitative results prove that the proposed
approach using FDO as a trainer can outperform the other approaches using
different trainers on the dataset in terms of convergence speed and local
optima avoidance. The proposed FDO-MLP approach classifies with a rate of 0.97.
- Abstract(参考訳): 本研究は、最近提案されたFDO(Fitness Dependent Optimizer)に依存する新しいトレーニングアルゴリズムを提案する。
このアルゴリズムの安定性は検証され、いくつかの標準測定値を用いて探索段階と搾取段階の両方で性能が保証されている。
これは多層パーセプトロンニューラルネットワーク(mlp)の学習におけるアルゴリズムの性能を計測する目標に影響を与えました。
本研究は,FDOとMLP(コードネームFDO-MLP)を組み合わせて,重みとバイアスを最適化し,学生の成果を予測する。
本研究は,成績の向上に加えて,学生の教育的背景から学習システムを改善することができる。
このアプローチの実験結果は、バックプロパゲーションアルゴリズム(BP)や、FDOとカスケードMLP(FDO-CMLP)、Grey Wolf Optimizer(GWO)とMLP(GWO-MLP)、GWOとMLP(MGWO-MLP)の組み合わせ、GWOとカスケードMLP(GWO-CMLP)、GWOとMGWO-CMLP(MGWO-CMLP)などの進化モデルと比較することによって確認される。
定性的・定量的な結果から,fdoをトレーナーとして使用する手法は,収束速度や局所光度回避の観点から,データセット上の異なるトレーナーを用いた他の手法よりも優れることがわかった。
提案するfdo-mlpアプローチは0.97に分類される。
関連論文リスト
- SA-MLP: Enhancing Point Cloud Classification with Efficient Addition and Shift Operations in MLP Architectures [46.266960248570086]
従来のニューラルネットワークは計算コストのかかる乗算演算に大きく依存している。
本稿では,乗算を加算演算とシフト演算に置き換えるAdd-MLPとShift-MLPを提案し,計算効率を大幅に向上させる。
この研究は、ポイントクラウド分類のための効率的かつ効果的なソリューションを提供し、性能と計算効率のバランスをとる。
論文 参考訳(メタデータ) (2024-09-03T15:43:44Z) - Kolmogorov-Arnold Network for Online Reinforcement Learning [0.22615818641180724]
Kolmogorov-Arnold Networks (KANs)は、ニューラルネットワークにおけるMLP(Multi-Layer Perceptrons)の代替としての可能性を示している。
Kansはパラメータが少なく、メモリ使用量が減ったユニバーサル関数近似を提供する。
論文 参考訳(メタデータ) (2024-08-09T03:32:37Z) - An Effective Networks Intrusion Detection Approach Based on Hybrid
Harris Hawks and Multi-Layer Perceptron [47.81867479735455]
本稿では,Harris Hawks Optimization (HHO) を用いた多層パーセプトロン学習のための侵入検知システムを提案する。
HHO-MLPは、ネットワークの侵入検出エラーを最小限に抑えるため、学習プロセスにおいて最適なパラメータを選択することを目的としている。
HHO-MLPは、93.17%の精度、95.41%の感度、95.41%の特異度でトップスコアを獲得することで、優れた性能を示した。
論文 参考訳(メタデータ) (2024-02-21T06:25:50Z) - Parameter and Computation Efficient Transfer Learning for
Vision-Language Pre-trained Models [79.34513906324727]
本稿では,視覚言語事前学習モデルのためのパラメータと効率的な伝達学習(PCETL)を提案する。
そこで本研究では,新しい動的アーキテクチャスキップ(DAS)アプローチを効果的PCETLに適用する。
論文 参考訳(メタデータ) (2023-09-04T09:34:33Z) - NTK-approximating MLP Fusion for Efficient Language Model Fine-tuning [40.994306592119266]
訓練済みの言語モデル(PLM)を微調整することは、多くの自然言語処理アプリケーションにおいて主要な戦略として現れる。
いくつかの一般的なアプローチ(量子化や蒸留など)は、PLM微細チューニングの計算/メモリを減らすために広く研究されている。
我々は、NTK近似モジュールを融合して軽量PLMを作成することを提案する。
論文 参考訳(メタデータ) (2023-07-18T03:12:51Z) - Model-tuning Via Prompts Makes NLP Models Adversarially Robust [97.02353907677703]
Model-tuning Via Prompts (MVP) による対向的ロバスト性の評価
MVPは、標準的な方法よりも平均8%の性能向上を実現している。
また,これらの利得の基盤となるメカニズムの解明も行なっている。
論文 参考訳(メタデータ) (2023-03-13T17:41:57Z) - Efficient Language Modeling with Sparse all-MLP [53.81435968051093]
すべてのMLPは、言語モデリングにおいてTransformerと一致するが、下流タスクではまだ遅れている。
特徴量と入力量の両方でMoE(Mix-of-Experts)を混合したスパースオールMLPを提案する。
6つの下流タスクにおいて、ゼロショットのインコンテキスト学習性能を評価し、トランスフォーマーベースのMoEや高密度トランスフォーマーを上回る結果を得た。
論文 参考訳(メタデータ) (2022-03-14T04:32:19Z) - Mixing and Shifting: Exploiting Global and Local Dependencies in Vision
MLPs [84.3235981545673]
Token-mixing Multi-layer Perceptron (MLP) モデルはコンピュータビジョンタスクにおいて競合性能を示す。
本研究では,空間シフトの量に関して,局所受容場のサイズを増大させるMix-Shift-MLPを提案する。
MS-MLPは、複数のビジョンベンチマークで競合性能を達成する。
論文 参考訳(メタデータ) (2022-02-14T06:53:48Z) - Synthesizing multi-layer perceptron network with ant lion,
biogeography-based dragonfly algorithm evolutionary strategy invasive weed
and league champion optimization hybrid algorithms in predicting heating load
in residential buildings [1.370633147306388]
熱負荷(hl)の正確な近似の意義は,本研究の主な動機である。
提案モデルはant lion optimization (alo) を用いた多層パーセプトロンネットワーク (mlp) である。
ALO(OS = 27)とES(OS = 20)が続く最も有効な最適化技術として、BBO(Biogeography-based optimization)が注目されています。
論文 参考訳(メタデータ) (2021-02-13T14:06:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。