論文の概要: Multi-Strategy Improved Snake Optimizer Accelerated CNN-LSTM-Attention-Adaboost for Trajectory Prediction
- arxiv url: http://arxiv.org/abs/2507.15832v1
- Date: Mon, 21 Jul 2025 17:44:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-22 20:51:32.514552
- Title: Multi-Strategy Improved Snake Optimizer Accelerated CNN-LSTM-Attention-Adaboost for Trajectory Prediction
- Title(参考訳): 軌道予測のためのCNN-LSTM-Attention-Adaboostによるマルチストラテジー改善によるスネーク最適化
- Authors: Shiyang Li,
- Abstract要約: 本稿では,マルチストラテジー改良型スネークハード最適化(SO)アルゴリズムを取り入れたハイブリッドCNN-LSTM-attention-adaboostニューラルネットワークモデルを提案する。
その結果,SO-adaboostは粒子群,クジラ,オオカミなどの従来のCLAよりも大規模な高次元軌道データの処理に優れていた。
さらに、フルストラテジー協調改善SOアルゴリズムの導入により、モデルの予測精度は39.89%向上した。
- 参考スコア(独自算出の注目度): 9.489729227685057
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To address the limitations of medium- and long-term four-dimensional (4D) trajectory prediction models, this paper proposes a hybrid CNN-LSTM-attention-adaboost neural network model incorporating a multi-strategy improved snake-herd optimization (SO) algorithm. The model applies the Adaboost algorithm to divide multiple weak learners, and each submodel utilizes CNN to extract spatial features, LSTM to capture temporal features, and attention mechanism to capture global features comprehensively. The strong learner model, combined with multiple sub-models, then optimizes the hyperparameters of the prediction model through the natural selection behavior pattern simulated by SO. In this study, based on the real ADS-B data from Xi'an to Tianjin, the comparison experiments and ablation studies of multiple optimizers are carried out, and a comprehensive test and evaluation analysis is carried out. The results show that SO-CLA-adaboost outperforms traditional optimizers such as particle swarm, whale, and gray wolf in handling large-scale high-dimensional trajectory data. In addition, introducing the full-strategy collaborative improvement SO algorithm improves the model's prediction accuracy by 39.89%.
- Abstract(参考訳): 本稿では,中長期の4次元軌道予測モデルの限界に対処するため,マルチストラテジー改良型ヘビ型最適化(SO)アルゴリズムを取り入れたハイブリッドCNN-LSTM-attention-adaboostニューラルネットワークモデルを提案する。
このモデルは、複数の弱い学習者を分割するためにAdaboostアルゴリズムを適用し、各サブモデルはCNNを用いて空間的特徴を抽出し、LSTMは時間的特徴を捉え、アテンションメカニズムはグローバル特徴を包括的に捉えている。
強学習モデルと複数のサブモデルを組み合わせることで、SOでシミュレートされた自然な選択行動パターンを通じて予測モデルのハイパーパラメータを最適化する。
本研究では,Xi'anから天津までの実ADS-Bデータに基づいて,複数オプティマイザの比較実験およびアブレーション研究を行い,総合的なテストおよび評価分析を行った。
その結果,SO-CLA-adaboostは大規模高次元軌道データの処理において,粒子群,クジラ,オオカミなどの従来のオプティマイザよりも優れていた。
さらに、フルストラテジー協調改善SOアルゴリズムの導入により、モデルの予測精度は39.89%向上した。
関連論文リスト
- Self-Boost via Optimal Retraining: An Analysis via Approximate Message Passing [58.52119063742121]
独自の予測と潜在的にノイズの多いラベルを使ってモデルをトレーニングすることは、モデルパフォーマンスを改善するためのよく知られた戦略である。
本稿では,モデルの予測と提供ラベルを最適に組み合わせる方法について論じる。
我々の主な貢献は、現在のモデルの予測と与えられたラベルを組み合わせたベイズ最適集約関数の導出である。
論文 参考訳(メタデータ) (2025-05-21T07:16:44Z) - Supervised Score-Based Modeling by Gradient Boosting [49.556736252628745]
本稿では,スコアマッチングを組み合わせた勾配向上アルゴリズムとして,SSM(Supervised Score-based Model)を提案する。
推測時間と予測精度のバランスをとるため,SSMの学習とサンプリングに関する理論的解析を行った。
我々のモデルは、精度と推測時間の両方で既存のモデルより優れています。
論文 参考訳(メタデータ) (2024-11-02T07:06:53Z) - Edge-Efficient Deep Learning Models for Automatic Modulation Classification: A Performance Analysis [0.7428236410246183]
無線信号の自動変調分類(AMC)のための最適化畳み込みニューラルネットワーク(CNN)について検討した。
本稿では,これらの手法を組み合わせて最適化モデルを提案する。
実験結果から,提案手法と組み合わせ最適化手法は,複雑度が著しく低いモデルの開発に極めて有効であることが示唆された。
論文 参考訳(メタデータ) (2024-04-11T06:08:23Z) - Diffusion-Based Neural Network Weights Generation [80.89706112736353]
D2NWGは拡散に基づくニューラルネットワーク重み生成技術であり、転送学習のために高性能な重みを効率よく生成する。
本稿では,ニューラルネットワーク重み生成のための遅延拡散パラダイムを再放送するために,生成的ハイパー表現学習を拡張した。
我々のアプローチは大規模言語モデル(LLM)のような大規模アーキテクチャにスケーラブルであり、現在のパラメータ生成技術の限界を克服しています。
論文 参考訳(メタデータ) (2024-02-28T08:34:23Z) - Embedded feature selection in LSTM networks with multi-objective
evolutionary ensemble learning for time series forecasting [49.1574468325115]
本稿では,Long Short-Term Memory Networkに埋め込まれた特徴選択手法を提案する。
本手法はLSTMの重みと偏りを分割的に最適化する。
イタリアとスペイン南東部の大気質時系列データの実験的評価により,従来のLSTMの能力一般化が著しく向上することが確認された。
論文 参考訳(メタデータ) (2023-12-29T08:42:10Z) - Quick-Tune: Quickly Learning Which Pretrained Model to Finetune and How [62.467716468917224]
本稿では,最適事前学習モデルとハイパーパラメータを共同で探索し,微調整する手法を提案する。
本手法は,一連のデータセット上で,事前学習したモデルの性能に関する知識を伝達する。
得られたアプローチによって、新しいデータセットの正確な事前学習モデルを迅速に選択できることを実証的に実証する。
論文 参考訳(メタデータ) (2023-06-06T16:15:26Z) - AD-NEV: A Scalable Multi-level Neuroevolution Framework for Multivariate
Anomaly Detection [1.0323063834827415]
異常検出ツールと手法は、現代のサイバー物理および障害予測システムにおいて重要な機能を示す。
与えられたデータセットのモデル最適化は、面倒で時間のかかるプロセスである。
スケーラブルな多レベル最適化ニューロエボリューションフレームワークであるAnomaly Detection Neuroevolution (AD-NEv)を提案する。
論文 参考訳(メタデータ) (2023-05-25T21:52:38Z) - When to Update Your Model: Constrained Model-based Reinforcement
Learning [50.74369835934703]
モデルベースRL(MBRL)の非遅延性能保証のための新規で一般的な理論スキームを提案する。
続いて導いた境界は、モデルシフトとパフォーマンス改善の関係を明らかにします。
さらなる例では、動的に変化する探索からの学習モデルが、最終的なリターンの恩恵をもたらすことが示されている。
論文 参考訳(メタデータ) (2022-10-15T17:57:43Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z) - Genetically Optimized Prediction of Remaining Useful Life [4.115847582689283]
LSTMおよびGRUモデルを実装し、得られた結果と提案された遺伝子訓練ニューラルネットワークを比較します。
遺伝的アルゴリズムを用いた他の最適化層を追加することによって,予測の整合性の向上を期待する。
これらのモデルと提案されたアーキテクチャは、nasaのターボファンジェットエンジンデータセットでテストされている。
論文 参考訳(メタデータ) (2021-02-17T16:09:23Z) - Neural network with data augmentation in multi-objective prediction of
multi-stage pump [16.038015881697593]
ニューラルネットワークモデル(NN)は、二次応答面モデル(RSF)、ラジアル基底ガウス応答面モデル(RBF)、クリグモデル(KRG)と比較して構築される。
4つの予測モデルに基づく頭部とパワーの精度をCFDシミュレーション値と比較した。
データ拡張(NNDA)に基づくニューラルネットワークモデルが提案されている。
論文 参考訳(メタデータ) (2020-02-04T11:23:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。