論文の概要: Bio-Inspired Neuron Synapse Optimization for Adaptive Learning and Smart Decision-Making
- arxiv url: http://arxiv.org/abs/2511.00042v1
- Date: Tue, 28 Oct 2025 03:58:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 16:37:26.533902
- Title: Bio-Inspired Neuron Synapse Optimization for Adaptive Learning and Smart Decision-Making
- Title(参考訳): 適応学習とスマート意思決定のためのバイオインスパイアされたニューロンシナプス最適化
- Authors: Sreeja Singh, Tamal Ghosh,
- Abstract要約: 神経相互作用にインスパイアされた新しいメタヒューリスティックアルゴリズムである神経最適化(NSO)を紹介する。
このアルゴリズムは人気のあるメタヒューリスティックスと最近発表されたHippopotamus Optimization Algorithm (HOA)とをベンチマークした。
ベンチマークの結果、NSOは収束速度、堅牢性、スケーラビリティという点で他の主要なアルゴリズムよりも一貫して優れています。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Purpose: Optimization challenges in science, engineering, and real-world applications often involve complex, high-dimensional, and multimodal search spaces. Traditional optimization methods frequently struggle with local optima entrapment, slow convergence, and inefficiency in large-scale environments. This study aims to address these limitations by proposing a novel optimization algorithm inspired by neural mechanisms. Design/methodology/approach: The paper introduces Neuron Synapse Optimization (NSO), a new metaheuristic algorithm inspired by neural interactions. NSO features key innovations such as fitness-based synaptic weight updates to improve search influence, adaptive pruning to minimize computational overhead, and dual guidance from global and local best solutions to balance exploration and exploitation. The algorithm was benchmarked against popular metaheuristics and the recently published Hippopotamus Optimization Algorithm (HOA) using the CEC 2014 test suite, encompassing unimodal, multimodal, and composition function landscapes. Findings: Benchmark results reveal that NSO consistently outperforms HOA and other major algorithms in terms of convergence speed, robustness, and scalability. NSO demonstrates superior adaptability and efficiency, particularly in complex, high-dimensional search spaces. Originality: NSO introduces a unique blend of neural-inspired mechanisms with dynamic resource allocation, setting it apart from existing algorithms. Its innovative design enhances search performance while reducing computational cost. With promising applications in technology, healthcare, data science, and engineering, NSO paves the way for future research into dynamic and multi-objective optimization, machine learning hyperparameter tuning, and real-world engineering design problems.
- Abstract(参考訳): 目的: 科学、工学、実世界の応用における最適化の課題は、しばしば複雑で高次元でマルチモーダルな探索空間を含む。
従来の最適化手法は、大規模環境において、局所的な最適エントラップメント、緩やかな収束、非効率にしばしば苦労する。
本研究は,ニューラルメカニズムにインスパイアされた新しい最適化アルゴリズムを提案することによって,これらの制約に対処することを目的とする。
設計/方法論/アプローチ: 神経相互作用にインスパイアされた新しいメタヒューリスティックアルゴリズムである神経シナプス最適化(NSO)を紹介する。
NSOは、検索の影響を改善するためのフィットネスベースのシナプス重み更新、計算オーバーヘッドを最小限に抑える適応プルーニング、探索とエクスプロイトのバランスをとるためのグローバルおよびローカルのベストソリューションからの2つのガイダンスなどの重要なイノベーションを特徴としている。
このアルゴリズムは、一般的なメタヒューリスティックスと、CEC 2014テストスイートを使用した最近発表されたHippopotamus Optimization Algorithm (HOA)と比較された。
ベンチマークの結果、NSOは収束速度、堅牢性、スケーラビリティという点でHOAや他の主要なアルゴリズムを一貫して上回ります。
NSOは、特に複雑で高次元の探索空間において、優れた適応性と効率を示す。
原点: NSOは、ニューラルネットワークにインスパイアされたメカニズムと動的リソース割り当てを組み合わせたユニークなブレンドを導入し、既存のアルゴリズムとは分離する。
その革新的な設計は、計算コストを削減しつつ、探索性能を向上させる。
テクノロジ、ヘルスケア、データサイエンス、エンジニアリングの有望な応用によって、NSOは、動的および多目的最適化、機械学習ハイパーパラメータチューニング、実世界のエンジニアリング設計問題に関する将来の研究の道を開く。
関連論文リスト
- Optimal Control Theoretic Neural Optimizer: From Backpropagation to Dynamic Programming [29.911180907218053]
本稿では,ディープニューラルネットワーク(DNN)の最適化に関するアルゴリズム的視点に焦点を当てる。
我々の動機付けされた観測は、DNNの勾配計算のためのバックプロパゲーションアルゴリズムと力学系における最適条件との顕著なアルゴリズム的類似性である。
最適制御 ニューラル理論 (OCNOpt) と呼ばれる結果の物理は、豊かなアルゴリズムの機会を与える。
論文 参考訳(メタデータ) (2025-10-15T23:39:51Z) - A Survey on Inference Optimization Techniques for Mixture of Experts Models [50.40325411764262]
大規模Mixture of Experts(MoE)モデルは、条件計算によるモデル容量と計算効率の向上を提供する。
これらのモデル上で推論をデプロイし実行することは、計算資源、レイテンシ、エネルギー効率において大きな課題を示す。
本調査では,システムスタック全体にわたるMoEモデルの最適化手法について分析する。
論文 参考訳(メタデータ) (2024-12-18T14:11:15Z) - Enhancing CNN Classification with Lamarckian Memetic Algorithms and Local Search [0.0]
そこで本研究では,局所探索機能を組み込んだ2段階学習手法と集団最適化アルゴリズムを併用した新しい手法を提案する。
実験の結果,提案手法は最先端の勾配に基づく手法よりも優れていた。
論文 参考訳(メタデータ) (2024-10-26T17:31:15Z) - A Hybrid Neural Coding Approach for Pattern Recognition with Spiking
Neural Networks [53.31941519245432]
脳にインスパイアされたスパイクニューラルネットワーク(SNN)は、パターン認識タスクを解く上で有望な能力を示している。
これらのSNNは、情報表現に一様神経コーディングを利用する同質ニューロンに基づいている。
本研究では、SNNアーキテクチャは異種符号化方式を組み込むよう、均質に設計されるべきである、と論じる。
論文 参考訳(メタデータ) (2023-05-26T02:52:12Z) - Approaching Globally Optimal Energy Efficiency in Interference Networks
via Machine Learning [22.926877147296594]
本研究は,マルチセル無線ネットワークにおけるエネルギー効率(EE)を最適化する機械学習手法を提案する。
その結果,この手法は分岐計算テストにより最適値に近いEEを達成できることが判明した。
論文 参考訳(メタデータ) (2022-11-25T08:36:34Z) - Improved Algorithms for Neural Active Learning [74.89097665112621]
非パラメトリックストリーミング設定のためのニューラルネットワーク(NN)ベースの能動学習アルゴリズムの理論的および経験的性能を改善する。
本研究では,SOTA(State-of-the-art (State-the-art)) 関連研究で使用されるものよりも,アクティブラーニングに適する人口減少を最小化することにより,2つの後悔の指標を導入する。
論文 参考訳(メタデータ) (2022-10-02T05:03:38Z) - Neural Combinatorial Optimization: a New Player in the Field [69.23334811890919]
本稿では,ニューラルネットワークに基づくアルゴリズムの古典的最適化フレームワークへの導入に関する批判的分析を行う。
性能, 転送可能性, 計算コスト, 大規模インスタンスなど, これらのアルゴリズムの基本的側面を分析するために, 総合的研究を行った。
論文 参考訳(メタデータ) (2022-05-03T07:54:56Z) - Self-Directed Online Machine Learning for Topology Optimization [58.920693413667216]
自己指向型オンライン学習最適化は、ディープニューラルネットワーク(DNN)と有限要素法(FEM)計算を統合している。
本アルゴリズムは, コンプライアンスの最小化, 流体構造最適化, 伝熱促進, トラス最適化の4種類の問題によって検証された。
その結果, 直接使用法と比較して計算時間を2~5桁削減し, 実験で検証した全ての最先端アルゴリズムより優れていた。
論文 参考訳(メタデータ) (2020-02-04T20:00:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。