論文の概要: Evaluation and Efficiency Comparison of Evolutionary Algorithms for Service Placement Optimization in Fog Architectures
- arxiv url: http://arxiv.org/abs/2501.09958v1
- Date: Fri, 17 Jan 2025 05:21:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-20 14:00:07.508953
- Title: Evaluation and Efficiency Comparison of Evolutionary Algorithms for Service Placement Optimization in Fog Architectures
- Title(参考訳): フォッグアーキテクチャにおけるサービス配置最適化のための進化的アルゴリズムの評価と効率比較
- Authors: Carlos Guerrero, Isaac Lera, Carlos Juiz,
- Abstract要約: この研究は霧のサービス配置の問題に対する3つの進化的アルゴリズムを比較した。
NSGA-IIは、目的の最高最適化と解空間の最高多様性を得た。
WSGAアルゴリズムは、他の2つのアルゴリズムに関して何の利益も示さなかった。
- 参考スコア(独自算出の注目度): 1.3723120574076126
- License:
- Abstract: This study compares three evolutionary algorithms for the problem of fog service placement: weighted sum genetic algorithm (WSGA), non-dominated sorting genetic algorithm II (NSGA-II), and multiobjective evolutionary algorithm based on decomposition (MOEA/D). A model for the problem domain (fog architecture and fog applications) and for the optimization (objective functions and solutions) is presented. Our main concerns are related to optimize the network latency, the service spread and the use of the resources. The algorithms are evaluated with a random Barabasi-Albert network topology with 100 devices and with two experiment sizes of 100 and 200 application services. The results showed that NSGA-II obtained the highest optimizations of the objectives and the highest diversity of the solution space. On the contrary, MOEA/D was better to reduce the execution times. The WSGA algorithm did not show any benefit with regard to the other two algorithms.
- Abstract(参考訳): 本研究では,重み付け総和遺伝的アルゴリズム(WSGA),非支配的ソート遺伝的アルゴリズム(NSGA-II),分解に基づく多目的進化アルゴリズム(MOEA/D)の3つの進化的アルゴリズムを比較した。
問題領域(フォグ・アーキテクチャとフォグ・アプリケーション)と最適化(対象関数と解)のモデルを示す。
主な関心事は、ネットワーク遅延の最適化、サービスの拡散、リソースの使用に関するものです。
このアルゴリズムは、100デバイスでランダムなバラバシ・アルベルトネットワークトポロジーと、100および200のアプリケーションサービスの2つの実験サイズで評価される。
その結果,NSGA-IIは目的の最大最適化と解空間の最大多様性を得た。
逆に、MOEA/Dは実行時間を短縮した方がよい。
WSGAアルゴリズムは、他の2つのアルゴリズムに関して何の利益も示さなかった。
関連論文リスト
- A new simplified MOPSO based on Swarm Elitism and Swarm Memory: MO-ETPSO [0.0]
Elitist PSO (MO-ETPSO) は多目的最適化問題に適用される。
提案アルゴリズムは、確立されたNSGA-IIアプローチからコア戦略を統合する。
このアルゴリズムの新たな側面は、SwarmメモリとSwarmエリート主義の導入である。
論文 参考訳(メタデータ) (2024-02-20T09:36:18Z) - GOOSE Algorithm: A Powerful Optimization Tool for Real-World Engineering Challenges and Beyond [4.939986309170004]
GOOSEアルゴリズムは19のよく知られたテスト関数でベンチマークされる。
提案アルゴリズムは, 最新のベンチマーク関数10を用いて検証する。
得られた結果は,提案アルゴリズムの優れた性能を示すものである。
論文 参考訳(メタデータ) (2023-07-19T19:14:25Z) - Genetically Modified Wolf Optimization with Stochastic Gradient Descent
for Optimising Deep Neural Networks [0.0]
本研究の目的は、人口ベースメタヒューリスティックアルゴリズムを用いて、ニューラルネットワーク(NN)重み付けを最適化するための代替アプローチを分析することである。
Grey Wolf (GWO) と Genetic Modified Algorithms (GA) のハイブリッドをグラディエント・Descent (SGD) と組み合わせて検討した。
このアルゴリズムは、高次元性の問題にも対処しながら、エクスプロイトと探索の組み合わせを可能にする。
論文 参考訳(メタデータ) (2023-01-21T13:22:09Z) - Improved Algorithms for Neural Active Learning [74.89097665112621]
非パラメトリックストリーミング設定のためのニューラルネットワーク(NN)ベースの能動学習アルゴリズムの理論的および経験的性能を改善する。
本研究では,SOTA(State-of-the-art (State-the-art)) 関連研究で使用されるものよりも,アクティブラーニングに適する人口減少を最小化することにより,2つの後悔の指標を導入する。
論文 参考訳(メタデータ) (2022-10-02T05:03:38Z) - A Simple Evolutionary Algorithm for Multi-modal Multi-objective
Optimization [0.0]
マルチモーダル・多目的最適化問題(MMOP)を解くための定常進化アルゴリズムを提案する。
本報告では,1000関数評価の低計算予算を用いて,様々なテストスイートから得られた21個のMMOPの性能について報告する。
論文 参考訳(メタデータ) (2022-01-18T03:31:11Z) - Duck swarm algorithm: theory, numerical optimization, and applications [6.244015536594532]
本研究では,Duck Swarm Algorithm (DSA) という,群知能に基づく最適化アルゴリズムを提案する。
2つのルールは、提案されたDSAの探索と利用段階に対応するアヒルの餌の発見と採餌からモデル化される。
その結果, DSAは収束速度と探索・探索のバランスの観点から, 高性能な最適化手法であることがわかった。
論文 参考訳(メタデータ) (2021-12-27T04:53:36Z) - An Accelerated Variance-Reduced Conditional Gradient Sliding Algorithm
for First-order and Zeroth-order Optimization [111.24899593052851]
条件勾配アルゴリズム(Frank-Wolfeアルゴリズムとも呼ばれる)は、最近、機械学習コミュニティで人気を取り戻している。
ARCSは、ゼロ階最適化において凸問題を解く最初のゼロ階条件勾配スライディング型アルゴリズムである。
1次最適化では、ARCSの収束結果は、勾配クエリのオラクルの数で、従来のアルゴリズムよりも大幅に優れていた。
論文 参考訳(メタデータ) (2021-09-18T07:08:11Z) - Provably Faster Algorithms for Bilevel Optimization [54.83583213812667]
バイレベル最適化は多くの重要な機械学習アプリケーションに広く適用されている。
両レベル最適化のための2つの新しいアルゴリズムを提案する。
両アルゴリズムが$mathcalO(epsilon-1.5)$の複雑さを達成し,既存のアルゴリズムを桁違いに上回っていることを示す。
論文 参考訳(メタデータ) (2021-06-08T21:05:30Z) - Lower Bounds and Optimal Algorithms for Smooth and Strongly Convex
Decentralized Optimization Over Time-Varying Networks [79.16773494166644]
通信ネットワークのノード間を分散的に保存するスムーズで強い凸関数の和を最小化するタスクについて検討する。
我々は、これらの下位境界を達成するための2つの最適アルゴリズムを設計する。
我々は,既存の最先端手法と実験的な比較を行うことにより,これらのアルゴリズムの理論的効率を裏付ける。
論文 参考訳(メタデータ) (2021-06-08T15:54:44Z) - Iterative Algorithm Induced Deep-Unfolding Neural Networks: Precoding
Design for Multiuser MIMO Systems [59.804810122136345]
本稿では,AIIDNN(ディープ・アンフォールディング・ニューラルネット)を一般化した,ディープ・アンフォールディングのためのフレームワークを提案する。
古典的重み付き最小二乗誤差(WMMSE)反復アルゴリズムの構造に基づく効率的なIAIDNNを提案する。
提案したIAIDNNは,計算複雑性を低減した反復WMMSEアルゴリズムの性能を効率よく向上することを示す。
論文 参考訳(メタデータ) (2020-06-15T02:57:57Z) - Adaptivity of Stochastic Gradient Methods for Nonconvex Optimization [71.03797261151605]
適応性は現代最適化理論において重要であるが、研究されていない性質である。
提案アルゴリズムは,PL目標に対して既存のアルゴリズムよりも優れた性能を保ちながら,PL目標に対して最適な収束性を実現することを実証した。
論文 参考訳(メタデータ) (2020-02-13T05:42:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。