論文の概要: Multi-Agentic AI for Fairness-Aware and Accelerated Multi-modal Large Model Inference in Real-world Mobile Edge Networks
- arxiv url: http://arxiv.org/abs/2602.07215v1
- Date: Fri, 06 Feb 2026 21:52:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:24.511648
- Title: Multi-Agentic AI for Fairness-Aware and Accelerated Multi-modal Large Model Inference in Real-world Mobile Edge Networks
- Title(参考訳): 実世界のモバイルエッジネットワークにおけるフェアネス認識と高速化されたマルチモーダル大モデル推論のためのマルチエージェントAI
- Authors: Haiyuan Li, Hari Madhukumar, Shuangyi Yan, Yulei Wu, Dimitra Simeonidou,
- Abstract要約: モバイルエッジネットワークにおける遅延と公平性を考慮したマルチモーダルLM推論のためのマルチエージェントAIフレームワークを提案する。
我々のソリューションには、長期計画エージェント、短期プロンプトスケジューリングエージェント、複数ノードLMデプロイメントエージェントが含まれる。
実験により、我々のソリューションは平均遅延を80%以上削減し、他のベースラインと比較して公正性(ノーマル化ジャイナ指数)を0.90に改善することを示した。
- 参考スコア(独自算出の注目度): 4.018860391090846
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative AI (GenAI) has transformed applications in natural language processing and content creation, yet centralized inference remains hindered by high latency, limited customizability, and privacy concerns. Deploying large models (LMs) in mobile edge networks emerges as a promising solution. However, it also poses new challenges, including heterogeneous multi-modal LMs with diverse resource demands and inference speeds, varied prompt/output modalities that complicate orchestration, and resource-limited infrastructure ill-suited for concurrent LM execution. In response, we propose a Multi-Agentic AI framework for latency- and fairness-aware multi-modal LM inference in mobile edge networks. Our solution includes a long-term planning agent, a short-term prompt scheduling agent, and multiple on-node LM deployment agents, all powered by foundation language models. These agents cooperatively optimize prompt routing and LM deployment through natural language reasoning over runtime telemetry and historical experience. To evaluate its performance, we further develop a city-wide testbed that supports network monitoring, containerized LM deployment, intra-server resource management, and inter-server communications. Experiments demonstrate that our solution reduces average latency by over 80% and improves fairness (Normalized Jain index) to 0.90 compared to other baselines. Moreover, our solution adapts quickly without fine-tuning, offering a generalizable solution for optimizing GenAI services in edge environments.
- Abstract(参考訳): Generative AI(GenAI)は、自然言語処理とコンテンツ生成のアプリケーションを変えてきたが、集中型推論は、高いレイテンシ、限定されたカスタマイズ性、プライバシの懸念によって妨げられている。
モバイルエッジネットワークに大規模なモデル(LM)をデプロイすることは、有望なソリューションとして現れます。
しかし、これはまた、多様なリソース要求と推論速度を持つ異種マルチモーダルLM、オーケストレーションを複雑にする様々なプロンプト/アウトプットモダリティ、並行LM実行に不適なリソース制限インフラストラクチャなど、新しい課題も生み出している。
そこで本研究では,モバイルエッジネットワークにおける遅延と公平性を考慮したマルチモーダルLM推論のためのマルチエージェントAIフレームワークを提案する。
我々のソリューションは、長期計画エージェント、短期プロンプトスケジューリングエージェント、および基礎言語モデルによる複数のノードLMデプロイメントエージェントを含む。
これらのエージェントは、実行時テレメトリと過去の経験よりも、自然言語推論によるプロンプトルーティングとLMデプロイメントを協調的に最適化する。
その性能を評価するため,ネットワーク監視,コンテナ化LMデプロイメント,サーバ内リソース管理,サーバ間通信をサポートする都市規模のテストベッドを開発した。
実験により、我々のソリューションは平均遅延を80%以上削減し、他のベースラインと比較して公正性(ノーマル化ジャイナ指数)を0.90に改善することを示した。
エッジ環境におけるGenAIサービスを最適化するための汎用的なソリューションを提供する。
関連論文リスト
- ComAgent: Multi-LLM based Agentic AI Empowered Intelligent Wireless Networks [62.031889234230725]
6Gネットワークは複雑な層間最適化に依存している。
数学の定式化に高レベルの意図を手動で翻訳することは、まだボトルネックである。
我々はマルチLLMエージェントAIフレームワークであるComAgentを紹介する。
論文 参考訳(メタデータ) (2026-01-27T13:43:59Z) - NExT-OMNI: Towards Any-to-Any Omnimodal Foundation Models with Discrete Flow Matching [64.10695425442164]
NExT-OMNI(英語版)は、離散フローパラダイムによる統一モデリングを実現するオープンソース・オムニモーダル・ファンデーション・モデルである。
NExT-OMNIは、大規模なインターリーブ付きテキスト、画像、ビデオ、オーディオデータに基づいて訓練され、マルチモーダル生成および理解ベンチマーク上で競合するパフォーマンスを提供する。
さらなる研究を進めるために、トレーニングの詳細、データプロトコル、およびコードとモデルチェックポイントの両方をオープンソース化する。
論文 参考訳(メタデータ) (2025-10-15T16:25:18Z) - CollaPipe: Adaptive Segment-Optimized Pipeline Parallelism for Collaborative LLM Training in Heterogeneous Edge Networks [57.95170323315603]
CollaPipeは、コラボレーティブパイプライン並列性とフェデレーションアグリゲーションを統合し、自己進化型ネットワークをサポートする分散学習フレームワークである。
CollaPipeでは、エンコーダ部分は可変サイズのセグメントに適応的に分割され、パイプライン並列トレーニングのためにモバイルデバイスにデプロイされ、デコーダは生成タスクを処理するためにエッジサーバにデプロイされる。
トレーニング効率を向上させるために,モデルセグメント,マイクロバッチ,帯域幅,送信電力を適応的に割り当てる共同最適化問題を定式化する。
論文 参考訳(メタデータ) (2025-09-24T07:54:01Z) - Adaptive AI Agent Placement and Migration in Edge Intelligence Systems [14.789027376038115]
本稿では,エッジインテリジェンスシステムにおけるAIエージェント配置とマイグレーションのための新しいフレームワークを提案する。
エージェントを自律的に配置してリソース利用を最適化し、必須状態のみを転送することで、軽量なエージェントマイグレーションを可能にする。
論文 参考訳(メタデータ) (2025-08-05T11:47:46Z) - Symbiotic Agents: A Novel Paradigm for Trustworthy AGI-driven Networks [1.5684305805304426]
大規模言語モデル(LLM)に基づく自律エージェントは、6Gネットワークの進化において重要な役割を果たすことが期待されている。
我々は、LLMのリアルタイム最適化アルゴリズムをTrustworthy AIに組み合わせた新しいエージェントパラダイムを導入する。
本稿では,AGIネットワークのエンドツーエンドアーキテクチャを提案し,移動車からのチャネル変動をキャプチャする5Gテストベッド上で評価する。
論文 参考訳(メタデータ) (2025-07-23T17:01:23Z) - Large AI Model Empowered Multimodal Semantic Communications [48.73159237649128]
本稿では,Large AI Model-based Multimodal SC (LAMMSC) フレームワークを提案する。
まず、条件付きマルチモーダルアライメント(MMA)を提案し、マルチモーダルデータと非モーダルデータ間の変換を可能にする。
次に、パーソナライズされたLLMベースの知識ベース(LKB)を提案し、ユーザがパーソナライズされたセマンティック抽出やリカバリを行うことができる。
最後に,CGE(Generative Adversarial Network-based Channel Estimation)を用いて,無線チャネルの状態情報を推定する。
論文 参考訳(メタデータ) (2023-09-03T19:24:34Z) - Low-Latency Federated Learning over Wireless Channels with Differential
Privacy [142.5983499872664]
フェデレートラーニング(FL)では、モデルトレーニングはクライアントに分散し、ローカルモデルは中央サーバによって集約される。
本稿では,各クライアントの差分プライバシ(DP)要件だけでなく,全体としてのトレーニング性能に制約された無線チャネル上でのFLトレーニング遅延を最小限に抑えることを目的とする。
論文 参考訳(メタデータ) (2021-06-20T13:51:18Z) - Joint Multi-User DNN Partitioning and Computational Resource Allocation
for Collaborative Edge Intelligence [21.55340197267767]
Mobile Edge Computing(MEC)は、ネットワークエッジにさまざまなリソースを提供する有望なサポートアーキテクチャとして登場した。
エッジサーバの助けを借りて、ユーザ機器(UE)はディープニューラルネットワーク(DNN)ベースのAIアプリケーションを実行することができる。
最適解を時間内に達成できるIAO (Iterative Alternating Optimization) アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-15T09:40:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。