論文の概要: Hybrid Orchestration of Edge AI and Microservices via Graph-based Self-Imitation Learning
- arxiv url: http://arxiv.org/abs/2603.06669v1
- Date: Tue, 03 Mar 2026 03:54:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-10 15:13:12.698102
- Title: Hybrid Orchestration of Edge AI and Microservices via Graph-based Self-Imitation Learning
- Title(参考訳): グラフベースのセルフイミテーション学習によるエッジAIとマイクロサービスのハイブリッドオーケストレーション
- Authors: Chen Yang, Jin Zheng, Yang Zhuolin, Lai Pan, Zhang Xiao, Hu Menglan, Yin Haiyan,
- Abstract要約: SIL-GPOは、エッジAIマイクロサービスシステムのハイブリッドオーケストレーションを最適化する強化学習フレームワークである。
我々は、SIL-GPOが、最先端、メタヒューリスティック、深層RLベースラインと比較して、エンドツーエンドのサービスレイテンシを著しく低減し、リソース利用率を高めることを実証した。
- 参考スコア(独自算出の注目度): 10.889659056437546
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern edge AI applications increasingly rely on microservice architectures that integrate both AI services and conventional microservices into complex request chains with stringent latency requirements. Effectively orchestrating these heterogeneous services is crucial for ensuring low-latency performance, yet remains challenging due to their diverse resource demands and strong operational interdependencies under resource-constrained edge environments. In particular, frequent interactions between services tightly couple deployment and routing decisions, yet existing approaches optimize them in isolation, leading to fundamentally inadequate system performance.In this paper, we propose SIL-GPO, a reinforcement learning framework that optimizes hybrid orchestration for edge AI microservice systems. SIL-GPO formulates the orchestration problem as a sequential decision-making task and leverages graph attention networks to encode service topologies and routing dependencies within the agent state representation. Moreover, SIL-GPO integrates a self-imitation learning strategy into proximal policy optimization, enabling the agent to prioritize and reuse high-reward trajectories. This guides policy updates towards globally promising solutions that standard RL often fails to discover under sparse rewards and large combinatorial action spaces. We conduct extensive experiments on trace-driven edge AI workloads, demonstrating that SIL-GPO significantly reduces end-to-end service latency and enhances resource utilization compared to state-of-the-art heuristic, metaheuristic, and deep RL baselines. Our framework offers a unified and scalable solution for efficient orchestration of AI services and microservices in the edge, paving the way for low-latency, high-performance edge AI deployments.
- Abstract(参考訳): 現代のエッジAIアプリケーションは、AIサービスと従来のマイクロサービスの両方を、厳格なレイテンシ要件を持った複雑な要求チェーンに統合するマイクロサービスアーキテクチャにますます依存しています。
これらの異種サービスを効果的にオーケストレーションすることは、低レイテンシのパフォーマンスを確保する上で非常に重要ですが、リソース要求の多様さとリソース制約されたエッジ環境下での運用上の相互依存が強いため、依然として困難です。
本稿では,エッジAIマイクロサービスシステムのハイブリッドオーケストレーションを最適化する強化学習フレームワークであるSIL-GPOを提案する。
SIL-GPOは、オーケストレーション問題をシーケンシャルな意思決定タスクとして定式化し、グラフアテンションネットワークを利用して、エージェント状態表現内のサービストポロジとルーティング依存性をエンコードする。
さらに、SIL-GPOは自己シミュレーション学習戦略を近似ポリシー最適化に統合し、エージェントが高次軌道を優先順位付けし再利用できるようにする。
これは、標準RLがスパース報酬や大きな組合せ行動空間の下でしばしば発見できない、グローバルに有望なソリューションへのポリシー更新を導く。
我々は、トレース駆動のエッジAIワークロードに関する広範な実験を行い、SIL-GPOは、最先端のヒューリスティック、メタヒューリスティック、ディープRLベースラインと比較して、エンドツーエンドのサービスレイテンシを著しく削減し、リソース使用率を向上させることを実証した。
私たちのフレームワークは、エッジにおけるAIサービスとマイクロサービスの効率的なオーケストレーションのための、統一的でスケーラブルなソリューションを提供しています。
関連論文リスト
- A Flexible Multi-Agent Deep Reinforcement Learning Framework for Dynamic Routing and Scheduling of Latency-Critical Services [18.675072317045466]
既存のネットワーク制御ソリューションの多くは平均遅延性能のみを目標としており、厳格なEnd-to-End(E2E)ピークレイテンシ保証を提供していない。
本稿では,MA-DRL(Multi-Agent Deep Reinforcement Learning)の最近の進歩を生かして,適用期限内にパケットを確実に届けることの課題に対処する。
本稿では,集中型ルーティングと分散スケジューリングアーキテクチャを活用したMA-DRLネットワーク制御フレームワークを提案する。
論文 参考訳(メタデータ) (2025-10-13T15:38:10Z) - Edge-Cloud Collaborative Computing on Distributed Intelligence and Model Optimization: A Survey [58.50944604905037]
エッジクラウドコラボレーティブコンピューティング(ECCC)は、現代のインテリジェントアプリケーションの計算要求に対処するための重要なパラダイムとして登場した。
AIの最近の進歩、特にディープラーニングと大規模言語モデル(LLM)は、これらの分散システムの能力を劇的に向上させてきた。
この調査は、基本的なアーキテクチャ、技術の実現、新しいアプリケーションに関する構造化されたチュートリアルを提供する。
論文 参考訳(メタデータ) (2025-05-03T13:55:38Z) - Adaptive routing protocols for determining optimal paths in AI multi-agent systems: a priority- and learning-enhanced approach [0.0]
本稿では,AIマルチエージェントネットワークに適した拡張適応ルーティングを提案する。
タスク複雑性,ユーザ要求優先度,エージェント能力,帯域幅,レイテンシ,負荷,モデル高度化,信頼性などの多面的パラメータを組み込んだ。
論文 参考訳(メタデータ) (2025-03-10T13:16:54Z) - Accelerating AIGC Services with Latent Action Diffusion Scheduling in Edge Networks [27.961536719427205]
現在のAIGCモデルは、主に集中型のフレームワーク内のコンテンツ品質に焦点を当てており、高いサービス遅延とネガティブなユーザエクスペリエンスをもたらす。
高速AIGCサービスのための複数のエッジサーバを編成する新しい遅延アクション拡散に基づくタスクスケジューリング手法であるLAD-TSを提案する。
また,AIGCモデルを改良したプロトタイプエッジシステムであるDEdgeAIを開発し,LAD-TS法の実装と評価を行った。
論文 参考訳(メタデータ) (2024-12-24T06:40:13Z) - Design Optimization of NOMA Aided Multi-STAR-RIS for Indoor Environments: A Convex Approximation Imitated Reinforcement Learning Approach [51.63921041249406]
非直交多重アクセス(Noma)により、複数のユーザが同じ周波数帯域を共有でき、同時に再構成可能なインテリジェントサーフェス(STAR-RIS)を送信および反射することができる。
STAR-RISを屋内に展開することは、干渉緩和、電力消費、リアルタイム設定における課題を提示する。
複数のアクセスポイント(AP)、STAR-RIS、NOMAを利用した新しいネットワークアーキテクチャが屋内通信のために提案されている。
論文 参考訳(メタデータ) (2024-06-19T07:17:04Z) - Offloading and Quality Control for AI Generated Content Services in 6G Mobile Edge Computing Networks [18.723955271182007]
本稿では, 逆拡散段階における拡散モデルのオフロード決定, 計算時間, 拡散ステップに対する共同最適化アルゴリズムを提案する。
実験結果から,提案アルゴリズムはベースラインよりも優れた継手最適化性能が得られることが示された。
論文 参考訳(メタデータ) (2023-12-11T08:36:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。