論文の概要: Distilling Large Language Models for Network Active Queue Management
- arxiv url: http://arxiv.org/abs/2501.16734v1
- Date: Tue, 28 Jan 2025 06:19:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-29 16:40:46.356375
- Title: Distilling Large Language Models for Network Active Queue Management
- Title(参考訳): ネットワークアクティブキュー管理のための大規模言語モデルの蒸留
- Authors: Deol Satish, Shiva Raj Pokhrel, Jonathan Kua, Anwar Walid,
- Abstract要約: 既存のディープラーニングベースのキューイングアプローチは、動的ネットワークシナリオに苦労し、高度なエンジニアリング作業を必要とします。
本稿では,AQM-LLM,Large Language Models (LLMs) を提案する。
評価の結果,L4S-LLMは待ち行列の管理を強化し,混雑を防止し,遅延を低減し,ネットワーク性能を向上することがわかった。
- 参考スコア(独自算出の注目度): 13.452001847941588
- License:
- Abstract: The growing complexity of network traffic and demand for ultra-low latency communication require smarter packet traffic management. Existing Deep Learning-based queuing approaches struggle with dynamic network scenarios and demand high engineering effort. We propose AQM-LLM, distilling Large Language Models (LLMs) with few-shot learning, contextual understanding, and pattern recognition to improve Active Queue Management (AQM) [RFC 9330] with minimal manual effort. We consider a specific case where AQM is Low Latency, Low Loss, and Scalable Throughput (L4S) and our design of AQM-LLM builds on speculative decoding and reinforcement-based distilling of LLM by tackling congestion prevention in the L4S architecture using Explicit Congestion Notification (ECN) [RFC 9331] and periodic packet dropping. We develop a new open-source experimental platform by executing L4S-AQM on FreeBSD-14, providing interoperable modules to support LLM integration and facilitate IETF recognition through wider testing. Our extensive evaluations show L4S-LLM enhances queue management, prevents congestion, reduces latency, and boosts network performance, showcasing LLMs' adaptability and efficiency in uplifting AQM systems.
- Abstract(参考訳): ネットワークトラフィックの複雑化と超低レイテンシ通信の需要の増大は、よりスマートなパケットトラフィック管理を必要とする。
既存のディープラーニングベースのキューイングアプローチは、動的ネットワークシナリオに苦労し、高度なエンジニアリング作業を必要とします。
本稿では,AQM-LLM,Large Language Models (LLM) を少量の学習,文脈理解,パターン認識で蒸留し,最小限の手作業でアクティブキュー管理(AQM) [RFC 9330] を改善することを提案する。
我々は、AQMが低レイテンシ、低損失、スケーラブルスループット(L4S)であり、AQM-LLMの設計は、Explicit Congestion Notification (ECN) [RFC 9331] と周期パケットドロップを用いて、L4Sアーキテクチャの混雑防止に対処することにより、LLMの投機的復号と強化に基づく蒸留に基づいていると考えている。
我々は、FreeBSD-14上でL4S-AQMを実行し、LLM統合をサポートし、より広範なテストを通してIETF認識を促進するための相互運用可能なモジュールを提供することにより、新しいオープンソースの実験プラットフォームを開発する。
我々は,L4S-LLMが待ち行列の管理を強化し,混雑を防止し,遅延を低減し,ネットワーク性能を向上し,LLMの適応性と高効率性を示す。
関連論文リスト
- LINKs: Large Language Model Integrated Management for 6G Empowered Digital Twin NetworKs [7.9867096875429615]
本稿では,大規模言語モデル(LLM)の6G内蔵DTネットワーク管理への応用について検討する。
提案手法は, 遅延遅延を最小限に抑えるため, 関連データを選択的に検索することで遅延遅延を最小化できる。
シミュレーションの結果、データプランニングとネットワーク管理の性能改善が示されている。
論文 参考訳(メタデータ) (2024-12-09T17:41:23Z) - WDMoE: Wireless Distributed Mixture of Experts for Large Language Models [68.45482959423323]
大規模言語モデル(LLM)は様々な自然言語処理タスクにおいて大きな成功を収めた。
本稿では,無線ネットワーク上での基地局(BS)およびモバイルデバイスにおけるエッジサーバ間のLLMの協調展開を実現するために,無線分散Mixture of Experts(WDMoE)アーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-11-11T02:48:00Z) - Read-ME: Refactorizing LLMs as Router-Decoupled Mixture of Experts with System Co-Design [59.00758127310582]
本稿では、事前学習された高密度LCMをより小さなMoEモデルに変換する新しいフレームワークRead-MEを提案する。
当社のアプローチでは,専門家の抽出にアクティベーション空間を用いる。
Read-MEは、同様のスケールの他の人気のあるオープンソース高密度モデルよりも優れています。
論文 参考訳(メタデータ) (2024-10-24T19:48:51Z) - FactorLLM: Factorizing Knowledge via Mixture of Experts for Large Language Models [50.331708897857574]
本稿では,高度に訓練された高密度FFNを余分なサブネットワークに分解する新しいアプローチであるFacterLLMを紹介する。
FactorLLMは、最大85%のモデル性能を確保しながら、推論速度を30%以上増加させながら、ソースモデルに匹敵するパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-08-15T16:45:16Z) - Q*: Improving Multi-step Reasoning for LLMs with Deliberative Planning [53.6472920229013]
大規模言語モデル(LLM)は多くの自然言語タスクにおいて印象的な能力を示している。
LLMは多段階推論を行う際にエラー、幻覚、矛盾する文を生成する傾向がある。
本稿では,LLMの復号化過程を検討計画で導くためのフレームワークであるQ*を紹介する。
論文 参考訳(メタデータ) (2024-06-20T13:08:09Z) - Efficient Prompting for LLM-based Generative Internet of Things [88.84327500311464]
大規模言語モデル(LLM)は、様々なタスクにおいて顕著な能力を示しており、最近、IoT(Internet of Things)アプリケーションにLLMの能力を統合することが研究の注目を集めている。
セキュリティ上の懸念から、多くの機関は最先端の商用LLMサービスへのアクセスを避け、ローカルネットワーク環境でのオープンソースLLMのデプロイと利用を必要としている。
本研究では,LLMを用いた生成IoT(Generative IoT)システムを提案する。
論文 参考訳(メタデータ) (2024-06-14T19:24:00Z) - WDMoE: Wireless Distributed Large Language Models with Mixture of Experts [65.57581050707738]
我々は,Mixture of Experts (MoE)に基づく無線分散大言語モデル(LLM)パラダイムを提案する。
我々は,基地局(BS)とモバイルデバイスにゲーティングネットワークと先行するニューラルネットワーク層を配置することにより,LLM内のMoE層を分解する。
我々は、モデルの性能とエンドツーエンドのレイテンシの両方を考慮して、専門家の選択ポリシーを設計する。
論文 参考訳(メタデータ) (2024-05-06T02:55:50Z) - NetLLM: Adapting Large Language Models for Networking [36.61572542761661]
我々は,ネットワーク問題を解決するために低努力でLLMの強力な能力を活用するためのコヒーレントな設計を提供する最初のフレームワークであるNetLLMを紹介する。
具体的には、NetLLMはLLMにネットワーク上のマルチモーダルデータを効果的に処理し、タスク固有の回答を効率的に生成する権限を与える。
論文 参考訳(メタデータ) (2024-02-04T04:21:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。