論文の概要: Reducing Idleness in Financial Cloud via Multi-objective Evolutionary
Reinforcement Learning based Load Balancer
- arxiv url: http://arxiv.org/abs/2305.03463v1
- Date: Fri, 5 May 2023 12:09:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-08 14:11:36.388914
- Title: Reducing Idleness in Financial Cloud via Multi-objective Evolutionary
Reinforcement Learning based Load Balancer
- Title(参考訳): 多目的進化強化学習に基づくロードバランサによる金融クラウドのアイドルネス低減
- Authors: Peng Yang, Laoming Zhang, Haifeng Liu, Guiying Li
- Abstract要約: 本稿では,ユーザ接続の少ないアイドルサーバを削減するための金融サービスの必要性について論じる。
ニューラルネットワークベースのスケーラブルポリシは、弾力性のために、ユーザ要求をさまざまなサーバにルーティングするように設計されている。
アイドルネスの新たな目標が従来の産業ソリューションよりも130%以上削減されるだけでなく、当初の負荷分散の目標もわずかに改善されている。
- 参考スコア(独自算出の注目度): 13.161211233591162
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, various companies started to shift their data services from
traditional data centers onto cloud. One of the major motivations is to save
operation costs with the aid of cloud elasticity. This paper discusses an
emerging need from financial services to reduce idle servers retaining very few
user connections, without disconnecting them from the server side. This paper
considers this need as a bi-objective online load balancing problem. A neural
network based scalable policy is designed to route user requests to varied
numbers of servers for elasticity. An evolutionary multi-objective training
framework is proposed to optimize the weights of the policy. Not only the new
objective of idleness is reduced by over 130% more than traditional industrial
solutions, but the original load balancing objective is slightly improved.
Extensive simulations help reveal the detailed applicability of the proposed
method to the emerging problem of reducing idleness in financial services.
- Abstract(参考訳): 近年,さまざまな企業が,従来のデータセンタからクラウドへの移行に着手している。
主な動機の1つは、クラウドの弾力性による運用コストの削減である。
本稿では,サーバ側から切り離すことなく,ユーザ接続の少ないアイドルサーバを削減するための金融サービスの必要性について論じる。
本稿では、このニーズを双方向のオンライン負荷分散問題と考える。
ニューラルネットワークベースのスケーラブルポリシは、柔軟性のために、ユーザ要求をさまざまなサーバにルーティングするように設計されている。
政策の重み付けを最適化するために,進化的多目的学習フレームワークを提案する。
従来の産業ソリューションよりもアイドルネスの新たな目的が130%以上削減されるだけでなく、当初の負荷バランスの目標もわずかに改善されている。
広範なシミュレーションは金融サービスにおけるアイドルネスの低減という新たな問題に対する提案手法の詳細な適用可能性を明らかにするのに役立つ。
関連論文リスト
- Reinforcement Learning-Based Adaptive Load Balancing for Dynamic Cloud Environments [0.0]
これらの課題に対処するために,Reinforcement Learning (RL) を用いた適応型ロードバランシングフレームワークを提案する。
我々のフレームワークは、タスクを動的に再配置し、レイテンシを最小化し、サーバ間のリソース利用のバランスを確保するように設計されています。
実験の結果,提案したRLベースのロードバランサは,応答時間,資源利用量,ワークロードの変化に対する適応性などの観点から,従来のアルゴリズムよりも優れていた。
論文 参考訳(メタデータ) (2024-09-07T19:40:48Z) - Blockchain-enabled Trustworthy Federated Unlearning [50.01101423318312]
フェデレートアンラーニング(Federated Unlearning)は、分散クライアントのデータオーナシップを保護するための、有望なパラダイムである。
既存の作業では、分散クライアントからの履歴モデルパラメータを保持するために、中央サーバが必要である。
本稿では,ブロックチェーンによる信頼性の高いフェデレーションアンラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-29T07:04:48Z) - SpotServe: Serving Generative Large Language Models on Preemptible
Instances [64.18638174004151]
SpotServeは、プリエンプティブルインスタンスにシステムを提供する最初の分散大規模言語モデルである。
SpotServeは、既存のLLMサービスシステムと比較して、P99テールのレイテンシを2.4~9.1倍削減できることを示す。
また、SpotServeはプリエンプティブインスタンスの価格優位性を利用して、オンデマンドインスタンスのみを使用する場合と比較して54%の金銭的コストを節約できることも示しています。
論文 参考訳(メタデータ) (2023-11-27T06:31:17Z) - Fine-tuning can cripple your foundation model; preserving features may be the solution [87.35911633187204]
タスク上の概念を認識できる微調整モデルの能力は、事前訓練されたモデルに比べて大幅に低下する。
我々は、下流タスクに関連する新しい概念を学習しながら、モデルが事前学習した知識を保存できる「textitLDIFS$」という新しい微調整手法を提案する。
論文 参考訳(メタデータ) (2023-08-25T11:49:51Z) - Reconciling High Accuracy, Cost-Efficiency, and Low Latency of Inference
Serving Systems [0.0]
InfAdapterは、レイテンシSLOを満たすために、リソース割り当てでMLモデルの一連の変種を積極的に選択する。
SLO違反を減らし、業界で人気のオートスケーラと比較して、それぞれ65%と33%に値下げする。
論文 参考訳(メタデータ) (2023-04-21T11:19:49Z) - Managing Cold-start in The Serverless Cloud with Temporal Convolutional
Networks [0.0]
サーバレスクラウドは革新的なクラウドサービスモデルであり、多くのクラウド管理業務から顧客を解放します。
サーバーレスクラウドのパフォーマンスに対する大きな脅威はコールドスタートであり、顧客の要求に応えるために必要なクラウドリソースをプロビジョニングするとき、サービスプロバイダや/または顧客に受け入れられないコストが発生する。
本稿では、サーバーレスクラウドスタックのインフラストラクチャおよびファンクションレベルにおけるコールドスタート問題に対処する、新しい低結合・高結合アンサンブルポリシーを提案する。
論文 参考訳(メタデータ) (2023-04-01T21:54:22Z) - PECCO: A Profit and Cost-oriented Computation Offloading Scheme in
Edge-Cloud Environment with Improved Moth-flame Optimisation [22.673319784715172]
エッジクラウド計算のオフロードは、クラウドセンタの負担を軽減するための、有望なソリューションである。
そこで本研究では,元のMoth-flame Optimiserの欠陥に対処する改良型Moth-flame optimiser PECCO-MFIを提案する。
論文 参考訳(メタデータ) (2022-08-09T23:26:42Z) - Augmented Bilinear Network for Incremental Multi-Stock Time-Series
Classification [83.23129279407271]
本稿では,有価証券のセットで事前学習したニューラルネットワークで利用可能な知識を効率的に保持する手法を提案する。
本手法では,既存の接続を固定することにより,事前学習したニューラルネットワークに符号化された事前知識を維持する。
この知識は、新しいデータを用いて最適化された一連の拡張接続によって、新しい証券に対して調整される。
論文 参考訳(メタデータ) (2022-07-23T18:54:10Z) - DualCF: Efficient Model Extraction Attack from Counterfactual
Explanations [57.46134660974256]
クラウドサービスプロバイダがMachine-Learning-as-a-Serviceプラットフォームをローンチした。
このような余分な情報は、必然的にクラウドモデルが、抽出攻撃に対してより脆弱になる。
本稿では,分類モデルを盗むためのクエリ効率を大幅に向上させる,新しい単純で効率的なクエリ手法を提案する。
論文 参考訳(メタデータ) (2022-05-13T08:24:43Z) - FreeTickets: Accurate, Robust and Efficient Deep Ensemble by Training
with Dynamic Sparsity [74.58777701536668]
我々は、疎い畳み込みニューラルネットワークの性能を、ネットワークの高密度な部分よりも大きなマージンで向上させることができるFreeTicketsの概念を紹介した。
本研究では, ダイナミックな間隔を持つ2つの新しい効率的なアンサンブル手法を提案し, スパーストレーニング過程において, 多数の多様かつ正確なチケットを「無償」で撮影する。
論文 参考訳(メタデータ) (2021-06-28T10:48:20Z) - AI-based Resource Allocation: Reinforcement Learning for Adaptive
Auto-scaling in Serverless Environments [0.0]
近年、サーバーレスコンピューティングはクラウドコンピューティングモデルの魅力的な新しいパラダイムとして現れています。
商用およびオープンソースのサーバレスコンピューティングプラットフォームに共通するアプローチは、ワークロードベースの自動スケーリングである。
本稿では、サーバーレスフレームワークにおける要求ベース自動スケーリングに対する強化学習アプローチの適用性について検討する。
論文 参考訳(メタデータ) (2020-05-29T06:18:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。