論文の概要: A new Sparse Auto-encoder based Framework using Grey Wolf Optimizer for
Data Classification Problem
- arxiv url: http://arxiv.org/abs/2201.12493v1
- Date: Sat, 29 Jan 2022 04:28:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-04 07:41:07.963441
- Title: A new Sparse Auto-encoder based Framework using Grey Wolf Optimizer for
Data Classification Problem
- Title(参考訳): データ分類問題に対するGrey WolfOptimizerを用いた新しいスパースオートエンコーダベースフレームワーク
- Authors: Ahmad Mozaffer Karim
- Abstract要約: 列車のスパースオートエンコーダにグレーオオカミ最適化(GWO)を適用する。
モデルは、いくつかの人気のあるGene式データベースを使用することで検証される。
その結果、GWOを用いた学習モデルの性能は、一般的なメタヒューリスティックアルゴリズムで訓練された従来のモデルとモデルの両方で優れていた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: One of the most important properties of deep auto-encoders (DAEs) is their
capability to extract high level features from row data. Hence, especially
recently, the autoencoders are preferred to be used in various classification
problems such as image and voice recognition, computer security, medical data
analysis, etc. Despite, its popularity and high performance, the training phase
of autoencoders is still a challenging task, involving to select best
parameters that let the model to approach optimal results. Different training
approaches are applied to train sparse autoencoders. Previous studies and
preliminary experiments reveal that those approaches may present remarkable
results in same problems but also disappointing results can be obtained in
other complex problems. Metaheuristic algorithms have emerged over the last two
decades and are becoming an essential part of contemporary optimization
techniques. Gray wolf optimization (GWO) is one of the current of those
algorithms and is applied to train sparse auto-encoders for this study. This
model is validated by employing several popular Gene expression databases.
Results are compared with previous state-of-the art methods studied with the
same data sets and also are compared with other popular metaheuristic
algorithms, namely, Genetic Algorithms (GA), Particle Swarm Optimization (PSO)
and Artificial Bee Colony (ABC). Results reveal that the performance of the
trained model using GWO outperforms on both conventional models and models
trained with most popular metaheuristic algorithms.
- Abstract(参考訳): ディープオートエンコーダ(DAE)の最も重要な特性の1つは、行データから高レベル特徴を抽出する能力である。
したがって、特に近年では、画像や音声認識、コンピュータセキュリティ、医療データ分析などの様々な分類問題において、オートエンコーダが好まれている。
その人気と高いパフォーマンスにもかかわらず、オートエンコーダのトレーニングフェーズは依然として困難な課題であり、モデルが最適な結果に近づくための最適なパラメータを選択することを含む。
異なるトレーニングアプローチがスパースオートエンコーダの訓練に適用される。
先行研究と予備実験により、これらのアプローチが同様の問題に対して顕著な結果をもたらすだけでなく、他の複雑な問題においても失望的な結果が得られることが明らかとなった。
過去20年間にメタヒューリスティックアルゴリズムが登場し、現代最適化技術の重要な部分となっている。
gray wolf optimization(gwo)は、これらのアルゴリズムの現在の1つであり、この研究のためにスパースオートエンコーダのトレーニングに適用される。
このモデルは、いくつかの人気のあるGene式データベースを使用して検証される。
結果は、同じデータセットで研究された以前の最先端技術手法と比較され、他の一般的なメタヒューリスティックアルゴリズム、すなわち遺伝的アルゴリズム(ga)、粒子群最適化(pso)、人工蜂コロニー(abc)と比較される。
その結果、GWOを用いた学習モデルの性能は、一般的なメタヒューリスティックアルゴリズムで訓練された従来のモデルとモデルの両方で優れていた。
関連論文リスト
- Large Language Models as Surrogate Models in Evolutionary Algorithms: A Preliminary Study [5.6787965501364335]
サロゲートアシスト選択は、高価な最適化問題を解決する進化アルゴリズムの中核的なステップである。
伝統的に、これは従来の機械学習手法に依存しており、過去の評価を利用して新しいソリューションの性能を予測する。
本研究では,LLM推論機能に基づいた新しいサロゲートモデルを提案する。
論文 参考訳(メタデータ) (2024-06-15T15:54:00Z) - Discovering Preference Optimization Algorithms with and for Large Language Models [50.843710797024805]
オフライン優先最適化は、LLM(Large Language Model)出力の品質を向上・制御するための重要な手法である。
我々は、人間の介入なしに、新しい最先端の選好最適化アルゴリズムを自動で発見する客観的発見を行う。
実験は、ロジスティックと指数的損失を適応的にブレンドする新しいアルゴリズムであるDiscoPOPの最先端性能を示す。
論文 参考訳(メタデータ) (2024-06-12T16:58:41Z) - Applications of Nature-Inspired Metaheuristic Algorithms for Tackling Optimization Problems Across Disciplines [12.664160352147293]
本稿では,自然に着想を得たメタヒューリスティックアルゴリズムの有用性を示す。
本研究の主な目的は,CSO-MAのようなメタヒューリスティックなアルゴリズムが,統計学における様々な種類の最適化問題に取り組むのに効率的であることを示すことである。
論文 参考訳(メタデータ) (2023-08-08T16:41:33Z) - Enhancing Machine Learning Model Performance with Hyper Parameter
Optimization: A Comparative Study [0.0]
機械学習における最も重要な問題のひとつは、トレーニングモデルに適切なハイパーパラメータの選択である。
ハイパーパラメータ最適化(HPO)は、人工知能研究が最近注目している話題である。
本研究では,グリッドやランダム探索,ベイズ最適化などの古典的手法,遺伝的アルゴリズムや粒子群最適化といった人口ベースアルゴリズムについて論じる。
論文 参考訳(メタデータ) (2023-02-14T10:12:10Z) - A Stable, Fast, and Fully Automatic Learning Algorithm for Predictive
Coding Networks [65.34977803841007]
予測符号化ネットワークは、ベイズ統計学と神経科学の両方にルーツを持つ神経科学にインスパイアされたモデルである。
シナプス重みに対する更新規則の時間的スケジュールを変更するだけで、元の規則よりもずっと効率的で安定したアルゴリズムが得られることを示す。
論文 参考訳(メタデータ) (2022-11-16T00:11:04Z) - Towards Automated Imbalanced Learning with Deep Hierarchical
Reinforcement Learning [57.163525407022966]
不均衡学習はデータマイニングにおいて基本的な課題であり、各クラスにトレーニングサンプルの不均等な比率が存在する。
オーバーサンプリングは、少数民族のための合成サンプルを生成することによって、不均衡な学習に取り組む効果的な手法である。
我々は,異なるレベルの意思決定を共同で最適化できる自動オーバーサンプリングアルゴリズムであるAutoSMOTEを提案する。
論文 参考訳(メタデータ) (2022-08-26T04:28:01Z) - An Empirical Analysis of Recurrent Learning Algorithms In Neural Lossy
Image Compression Systems [73.48927855855219]
近年のディープラーニングの進歩により、JPEGとJPEG 2000を標準のKodakベンチマークで上回る画像圧縮アルゴリズムが実現している。
本稿では,最近の最先端ハイブリッドニューラル圧縮アルゴリズムの大規模比較を行う。
論文 参考訳(メタデータ) (2022-01-27T19:47:51Z) - RSO: A Novel Reinforced Swarm Optimization Algorithm for Feature
Selection [0.0]
本稿では,Reinforced Swarm Optimization (RSO) という特徴選択アルゴリズムを提案する。
このアルゴリズムは、広く使われているBee Swarm Optimization (BSO)アルゴリズムとReinforcement Learning (RL)アルゴリズムを組み込んで、優れた検索エージェントの報酬を最大化し、劣悪なエージェントを罰する。
提案手法は、バランスの取れたデータと不均衡なデータの完全なブレンドを含む、広く知られている25のUCIデータセットで評価される。
論文 参考訳(メタデータ) (2021-07-29T17:38:04Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z) - Cauchy-Schwarz Regularized Autoencoder [68.80569889599434]
変分オートエンコーダ(VAE)は、強力で広く使われている生成モデルのクラスである。
GMMに対して解析的に計算できるCauchy-Schwarz分散に基づく新しい制約対象を導入する。
本研究の目的は,密度推定,教師なしクラスタリング,半教師なし学習,顔分析における変分自動エンコーディングモデルの改善である。
論文 参考訳(メタデータ) (2021-01-06T17:36:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。