論文の概要: A new evolutionary algorithm: Learner performance based behavior
algorithm
- arxiv url: http://arxiv.org/abs/2009.11182v1
- Date: Sat, 5 Sep 2020 04:17:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-21 21:02:37.568772
- Title: A new evolutionary algorithm: Learner performance based behavior
algorithm
- Title(参考訳): 新しい進化的アルゴリズム:学習者性能に基づく行動アルゴリズム
- Authors: Chnoor M. Rahman and Tarik A. Rashid
- Abstract要約: 本稿では,Learner Performance Based Behavior Algorithm (LPB) と呼ばれる新しい進化的アルゴリズムを提案する。
LPBの基本的なインスピレーションは、大学の様々な部署の高校の大学院生を受け入れる過程に端を発する。
提案アルゴリズムの結果は,DA,GA,PSOと比較される。
- 参考スコア(独自算出の注目度): 1.1802674324027231
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: A novel evolutionary algorithm called learner performance based behavior
algorithm (LPB) is proposed in this article. The basic inspiration of LPB
originates from the process of accepting graduated learners from high school in
different departments at university. In addition, the changes those learners
should do in their studying behaviors to improve their study level at
university. The most important stages of optimization; exploitation and
exploration are outlined by designing the process of accepting graduated
learners from high school to university and the procedure of improving the
learner's studying behavior at university to improve the level of their study.
To show the accuracy of the proposed algorithm, it is evaluated against a
number of test functions, such as traditional benchmark functions, CEC-C06 2019
test functions, and a real-world case study problem. The results of the
proposed algorithm are then compared to the DA, GA, and PSO. The proposed
algorithm produced superior results in most of the cases and comparative in
some others. It is proved that the algorithm has a great ability to deal with
the large optimization problems comparing to the DA, GA, and PSO. The overall
results proved the ability of LPB in improving the initial population and
converging towards the global optima. Moreover, the results of the proposed
work are proved statistically.
- Abstract(参考訳): 本稿では,Learner Performance Based Behavior Algorithm (LPB)と呼ばれる新しい進化的アルゴリズムを提案する。
LPBの基本的なインスピレーションは、大学の様々な部署の高校の卒業生を受け入れる過程に端を発する。
さらに、学習者が学習行動にすべき変化は、大学での学習レベルを改善することである。
最適化の最も重要な段階は、高校から大学への大学院生の受け入れプロセスと、大学における学習者の学習行動を改善し、学習のレベルを向上する手順を設計することである。
提案アルゴリズムの精度を示すため,従来のベンチマーク関数,CEC-C06 2019テスト関数,実世界のケーススタディ問題など,多数のテスト関数に対して評価を行った。
提案アルゴリズムの結果は,DA,GA,PSOと比較される。
提案アルゴリズムは,ほとんどの場合において優れた結果が得られ,他の場合には比較結果が得られた。
このアルゴリズムは,DA,GA,PSOと比較して,大規模な最適化問題に対処する能力が高いことが証明された。
その結果,LPBは人口増加と国際的最適性への収束に有効であることが判明した。
さらに,本研究の結果を統計的に検証した。
関連論文リスト
- What is Metaheuristics? A Primer for the Epidemiologists [1.2783241540121182]
本稿では,様々な分野の応用を含む基本的BATアルゴリズムとその変種について概説する。
特定の応用として、BATアルゴリズムを生体統計学的推定問題に適用し、既存のアルゴリズムに対して明らかな優位性を示す。
論文 参考訳(メタデータ) (2024-10-26T02:13:00Z) - GOOSE Algorithm: A Powerful Optimization Tool for Real-World Engineering Challenges and Beyond [4.939986309170004]
GOOSEアルゴリズムは19のよく知られたテスト関数でベンチマークされる。
提案アルゴリズムは, 最新のベンチマーク関数10を用いて検証する。
得られた結果は,提案アルゴリズムの優れた性能を示すものである。
論文 参考訳(メタデータ) (2023-07-19T19:14:25Z) - A Reinforcement Learning-assisted Genetic Programming Algorithm for Team
Formation Problem Considering Person-Job Matching [70.28786574064694]
解の質を高めるために強化学習支援遺伝的プログラミングアルゴリズム(RL-GP)を提案する。
効率的な学習を通じて得られる超ヒューリスティックなルールは、プロジェクトチームを形成する際の意思決定支援として利用することができる。
論文 参考訳(メタデータ) (2023-04-08T14:32:12Z) - Improved Algorithms for Neural Active Learning [74.89097665112621]
非パラメトリックストリーミング設定のためのニューラルネットワーク(NN)ベースの能動学習アルゴリズムの理論的および経験的性能を改善する。
本研究では,SOTA(State-of-the-art (State-the-art)) 関連研究で使用されるものよりも,アクティブラーニングに適する人口減少を最小化することにより,2つの後悔の指標を導入する。
論文 参考訳(メタデータ) (2022-10-02T05:03:38Z) - Towards Diverse Evaluation of Class Incremental Learning: A Representation Learning Perspective [67.45111837188685]
クラスインクリメンタル学習(CIL)アルゴリズムは、インクリメンタルに到着したデータから新しいオブジェクトクラスを継続的に学習することを目的としている。
表現学習における様々な評価プロトコルを用いて,CILアルゴリズムによって訓練されたニューラルネットワークモデルを実験的に解析する。
論文 参考訳(メタデータ) (2022-06-16T11:44:11Z) - Improving RNA Secondary Structure Design using Deep Reinforcement
Learning [69.63971634605797]
本稿では,RNA配列設計に強化学習を適用した新しいベンチマークを提案する。このベンチマークでは,目的関数を配列の二次構造における自由エネルギーとして定義する。
本稿では,これらのアルゴリズムに対して行うアブレーション解析の結果と,バッチ間でのアルゴリズムの性能を示すグラフを示す。
論文 参考訳(メタデータ) (2021-11-05T02:54:06Z) - Provably Faster Algorithms for Bilevel Optimization [54.83583213812667]
バイレベル最適化は多くの重要な機械学習アプリケーションに広く適用されている。
両レベル最適化のための2つの新しいアルゴリズムを提案する。
両アルゴリズムが$mathcalO(epsilon-1.5)$の複雑さを達成し,既存のアルゴリズムを桁違いに上回っていることを示す。
論文 参考訳(メタデータ) (2021-06-08T21:05:30Z) - Identifying Co-Adaptation of Algorithmic and Implementational
Innovations in Deep Reinforcement Learning: A Taxonomy and Case Study of
Inference-based Algorithms [15.338931971492288]
我々は、アルゴリズムの革新と実装決定を分離するために、一連の推論に基づくアクター批判アルゴリズムに焦点を当てる。
実装の詳細がアルゴリズムの選択に一致すると、パフォーマンスが大幅に低下します。
結果は、どの実装の詳細がアルゴリズムと共適応され、共進化しているかを示す。
論文 参考訳(メタデータ) (2021-03-31T17:55:20Z) - Safe Learning and Optimization Techniques: Towards a Survey of the State
of the Art [3.6954802719347413]
安全な学習と最適化は、できるだけ安全でない入力ポイントの評価を避ける学習と最適化の問題に対処します。
安全強化学習アルゴリズムに関する包括的な調査は2015年に発表されたが、アクティブラーニングと最適化に関する関連研究は考慮されなかった。
本稿では,強化学習,ガウス過程の回帰と分類,進化的アルゴリズム,アクティブラーニングなど,様々な分野のアルゴリズムについて概説する。
論文 参考訳(メタデータ) (2021-01-23T13:58:09Z) - Implementation Matters in Deep Policy Gradients: A Case Study on PPO and
TRPO [90.90009491366273]
本稿では,2つの一般的なアルゴリズムのケーススタディにより,ディープポリシー勾配アルゴリズムにおけるアルゴリズムの進歩のルーツについて検討する。
具体的には,「コードレベルの最適化」の結果について検討する。
以上の結果から, (a) TRPOに対するPPOの累積報酬のほとんどを担っていることが示され, (b) RL メソッドの動作方法が根本的に変化していることが示唆された。
論文 参考訳(メタデータ) (2020-05-25T16:24:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。