論文の概要: Evolving Deep Neural Network by Customized Moth Flame Optimization
Algorithm for Underwater Targets Recognition
- arxiv url: http://arxiv.org/abs/2303.00922v1
- Date: Thu, 16 Feb 2023 18:18:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-05 05:34:20.808670
- Title: Evolving Deep Neural Network by Customized Moth Flame Optimization
Algorithm for Underwater Targets Recognition
- Title(参考訳): 水中ターゲット認識のためのカスタマイズモース火炎最適化アルゴリズムによる深層ニューラルネットワークの進化
- Authors: Mohammad Khishe, Mokhtar Mohammadi, Tarik A. Rashid, Hoger Mahmud,
Seyedali Mirjalili
- Abstract要約: この章では、ディープニューラルネットワークを微調整するためにMoth Flame Optimization (MFO)アルゴリズムを使用して、異なる水中ソナーデータセットを認識することを提案する。
スパイラル飛行は、火炎にかかわる位置の調整方法を決定するため、MFOの鍵となる要素である。
- 参考スコア(独自算出の注目度): 20.61648653406235
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This chapter proposes using the Moth Flame Optimization (MFO) algorithm for
finetuning a Deep Neural Network to recognize different underwater sonar
datasets. Same as other models evolved by metaheuristic algorithms, premature
convergence, trapping in local minima, and failure to converge in a reasonable
time are three defects MFO confronts in solving problems with high-dimension
search space. Spiral flying is the key component of the MFO as it determines
how the moths adjust their positions in relation to flames; thereby, the shape
of spiral motions can regulate the transition behavior between the exploration
and exploitation phases. Therefore, this chapter investigates the efficiency of
seven spiral motions with different curvatures and slopes in the performance of
the MFO, especially for underwater target classification tasks. To assess the
performance of the customized model, in addition to benchmark Sejnowski &
Gorman's dataset, two experimental sonar datasets, i.e., the passive sonar and
active datasets, are exploited. The results of MFO and its modifications are
compared to four novel nature-inspired algorithms, including Heap-Based
Optimizer (HBO), Chimp Optimization Algorithm (ChOA), Ant Lion Optimization
(ALO), Stochastic Fractals Search (SFS), as well as the classic Particle Swarm
Optimization (PSO). The results confirm that the customized MFO shows better
performance than the other state-of-the-art models so that the classification
rates are increased 1.5979, 0.9985, and 2.0879 for Sejnowski & Gorman, passive,
and active datasets, respectively. The results also approve that time
complexity is not significantly increased by using different spiral motions.
- Abstract(参考訳): 本章では、深層ニューラルネットワークを微調整し、異なる水中ソナーデータセットを認識するために、moth flame optimization(mfo)アルゴリズムを提案する。
メタヒューリスティックアルゴリズム、早期収束、局所最小値のトラップ、合理的時間での収束の失敗などによって進化した他のモデルと同様、MFOは高次元探索空間の問題を解決するために直面する3つの欠陥である。
スパイラル飛行は、火炎にかかわる姿勢をどのように調整するかを決定するため、MFOの重要な要素であり、スパイラル運動の形状は、探査と利用のフェーズ間の遷移の挙動を調節することができる。
そこで本章では,特に水中目標分類タスクにおいて,mfoの性能に異なる曲率と傾斜を有する7つの渦状運動の効率について検討する。
カスタマイズされたモデルの性能を評価するために、Sejnowski & Gormanのデータセットのベンチマークに加えて、2つの実験されたソナーデータセット、すなわち受動ソナーとアクティブデータセットを利用する。
MFOとその修正結果は、ヒープベース最適化(HBO)、チップ最適化アルゴリズム(ChOA)、アントライオン最適化(ALO)、確率フラクタル探索(SFS)、古典的なパーティクルスワーム最適化(PSO)の4つの新しい自然に触発されたアルゴリズムと比較される。
その結果、カスタマイズされたMFOは、他の最先端モデルよりも優れた性能を示し、セヨノフスキーとゴルマンの分類レートが1.5979、0.9985、2.0879、パッシブ、アクティブデータセットがそれぞれ増加することを確認した。
また, 異なる渦状運動を用いることで, 時間複雑性が著しく増大しないことも確認できた。
関連論文リスト
- Accelerated zero-order SGD under high-order smoothness and overparameterized regime [79.85163929026146]
凸最適化問題を解くための新しい勾配のないアルゴリズムを提案する。
このような問題は医学、物理学、機械学習で発生する。
両種類の雑音下で提案アルゴリズムの収束保証を行う。
論文 参考訳(メタデータ) (2024-11-21T10:26:17Z) - A novel algorithm for optimizing bundle adjustment in image sequence alignment [6.322876598831792]
本稿では,低温電子トモグラフィーにおける画像シーケンスアライメントの文脈におけるバンドル調整(BA)モデルを最適化するための新しいアルゴリズムを提案する。
アルゴリズムの性能を評価するために、合成データセットと実世界のデータセットの両方に関する大規模な実験を行った。
論文 参考訳(メタデータ) (2024-11-10T03:19:33Z) - Enhancing Zeroth-order Fine-tuning for Language Models with Low-rank Structures [21.18741772731095]
ゼロ階数(ZO)アルゴリズムは、関数値の有限差を用いて勾配を近似することで、有望な代替手段を提供する。
既存のZO法は、LLM微調整で一般的な低ランク勾配構造を捉えるのに苦労し、準最適性能をもたらす。
本稿では,LLMにおけるこの構造を効果的に捕捉する低ランクZOアルゴリズム(LOZO)を提案する。
論文 参考訳(メタデータ) (2024-10-10T08:10:53Z) - Optimal Algorithms for the Inhomogeneous Spiked Wigner Model [89.1371983413931]
不均一な問題に対する近似メッセージパッシングアルゴリズム(AMP)を導出する。
特に,情報理論の閾値よりも大きい信号と雑音の比を必要とする既知のアルゴリズムが,ランダムよりも優れた処理を行うための統計的・計算的ギャップの存在を同定する。
論文 参考訳(メタデータ) (2023-02-13T19:57:17Z) - Improved Algorithms for Neural Active Learning [74.89097665112621]
非パラメトリックストリーミング設定のためのニューラルネットワーク(NN)ベースの能動学習アルゴリズムの理論的および経験的性能を改善する。
本研究では,SOTA(State-of-the-art (State-the-art)) 関連研究で使用されるものよりも,アクティブラーニングに適する人口減少を最小化することにより,2つの後悔の指標を導入する。
論文 参考訳(メタデータ) (2022-10-02T05:03:38Z) - Adaptive LASSO estimation for functional hidden dynamic geostatistical
model [69.10717733870575]
関数型隠れ統計モデル(f-HD)のためのペナル化極大推定器(PMLE)に基づく新しいモデル選択アルゴリズムを提案する。
このアルゴリズムは反復最適化に基づいており、適応最小限の収縮・セレクタ演算子(GMSOLAS)ペナルティ関数を用いており、これは不給付のf-HD最大線量推定器によって得られる。
論文 参考訳(メタデータ) (2022-08-10T19:17:45Z) - Optimizing the optimizer for data driven deep neural networks and
physics informed neural networks [2.54325834280441]
ニューラルネットワークに適合するモデルの品質を,小~中程度のパラメータで決定する手法について検討する。
LMアルゴリズムは機械の精度に迅速に収束でき、他のアルゴリズムよりも大きな利点があることがわかった。
論文 参考訳(メタデータ) (2022-05-16T02:42:22Z) - Low-Pass Filtering SGD for Recovering Flat Optima in the Deep Learning
Optimization Landscape [15.362190838843915]
LPF-SGD は SGD よりも小さい一般化誤差でより良い最適点に収束することを示す。
本稿では,一般的なDLトレーニング手法と比較して,アルゴリズムが優れた一般化性能を実現することを示す。
論文 参考訳(メタデータ) (2022-01-20T07:13:04Z) - ZARTS: On Zero-order Optimization for Neural Architecture Search [94.41017048659664]
微分可能なアーキテクチャサーチ (DARTS) は、NASの高効率性のため、一般的なワンショットパラダイムである。
この作業はゼロオーダーの最適化に変わり、上記の近似を強制せずに探索するための新しいNASスキームであるZARTSを提案する。
特に、12ベンチマークの結果は、DARTSの性能が低下するZARTSの顕著な堅牢性を検証する。
論文 参考訳(メタデータ) (2021-10-10T09:35:15Z) - Augmented Parallel-Pyramid Net for Attention Guided Pose-Estimation [90.28365183660438]
本稿では、注意部分モジュールと微分可能な自動データ拡張を備えた拡張並列ピラミドネットを提案する。
我々は、データ拡張のシーケンスをトレーニング可能なCNNコンポーネントとして定式化する新しいポーズ検索空間を定義する。
特に,本手法は,挑戦的なCOCOキーポイントベンチマークとMPIIデータセットの最先端結果において,トップ1の精度を実現する。
論文 参考訳(メタデータ) (2020-03-17T03:52:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。