論文の概要: LLM-ABR: Designing Adaptive Bitrate Algorithms via Large Language Models
- arxiv url: http://arxiv.org/abs/2404.01617v1
- Date: Tue, 2 Apr 2024 03:43:55 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-03 17:58:09.542044
- Title: LLM-ABR: Designing Adaptive Bitrate Algorithms via Large Language Models
- Title(参考訳): LLM-ABR:大規模言語モデルによる適応ビットレートアルゴリズムの設計
- Authors: Zhiyuan He, Aashish Gottipati, Lili Qiu, Francis Y. Yan, Xufang Luo, Kenuo Xu, Yuqing Yang,
- Abstract要約: 本稿では,LLM-ABRについて述べる。LLM-ABRは大規模言語モデル(LLM)の生成能力を利用して,適応型アルゴリズム(ABR)を自動設計するシステムである。
LLM-ABRは,ブロードバンド,衛星,4G,5Gなど多様なネットワーク構成で評価される。
- 参考スコア(独自算出の注目度): 11.055072300500104
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present LLM-ABR, the first system that utilizes the generative capabilities of large language models (LLMs) to autonomously design adaptive bitrate (ABR) algorithms tailored for diverse network characteristics. Operating within a reinforcement learning framework, LLM-ABR empowers LLMs to design key components such as states and neural network architectures. We evaluate LLM-ABR across diverse network settings, including broadband, satellite, 4G, and 5G. LLM-ABR consistently outperforms default ABR algorithms.
- Abstract(参考訳): LLM-ABRは,大規模言語モデル(LLM)の生成能力を利用して,多様なネットワーク特性に適した適応ビットレート(ABR)アルゴリズムを自動設計するシステムである。
LLM-ABRは強化学習フレームワーク内で運用されており、状態やニューラルネットワークアーキテクチャといった重要なコンポーネントを設計する権限をLLMに与えている。
LLM-ABRは,ブロードバンド,衛星,4G,5Gなど多様なネットワーク構成で評価される。
LLM-ABRはデフォルトのABRアルゴリズムより一貫して優れている。
関連論文リスト
- Semantic Routing for Enhanced Performance of LLM-Assisted Intent-Based 5G Core Network Management and Orchestration [10.981422497762837]
大規模言語モデル(LLM)は人工知能(AI)アプリケーションで急速に普及している。
本稿では,5Gコアネットワークの意図に基づく管理とオーケストレーションにおける性能向上を目的としたセマンティックルーティングを提案する。
論文 参考訳(メタデータ) (2024-04-24T13:34:20Z) - RouterBench: A Benchmark for Multi-LLM Routing System [25.515453832224804]
パフォーマンスとコストのバランスをとる場合、すべてのタスクやアプリケーションに最適に対処できるモデルは存在しない。
この制限により、個々のLSMの制約を克服するために、様々なモデルの強みを組み合わせたLSMルーティングシステムの開発に繋がった。
本稿では LLM ルーティングシステムの有効性を体系的に評価する新しい評価フレームワークである RouterBench を提案する。
論文 参考訳(メタデータ) (2024-03-18T17:59:04Z) - ArCHer: Training Language Model Agents via Hierarchical Multi-Turn RL [80.10358123795946]
大規模言語モデルを微調整するためのマルチターンRLアルゴリズムを構築するためのフレームワークを開発する。
我々のフレームワークは階層的なRLアプローチを採用し、2つのRLアルゴリズムを並列に実行している。
実験により,ArCHerはエージェントタスクの効率と性能を大幅に向上させることがわかった。
論文 参考訳(メタデータ) (2024-02-29T18:45:56Z) - Revisiting Zeroth-Order Optimization for Memory-Efficient LLM
Fine-Tuning: A Benchmark [170.47660885570463]
本稿では、微調整時のメモリコスト低減のためのソリューションとして、BPフリーゼロオーダー最適化(ZO)への移行を提案する。
従来のZO-SGD法とは異なり、我々の研究はより広い範囲のZO最適化手法に探索を広げる。
本研究は,タスクアライメントの重要性,前方勾配法の役割,アルゴリズムの複雑さと微調整性能のバランスについて,これまで見過ごされてきた最適化原理を明らかにした。
論文 参考訳(メタデータ) (2024-02-18T14:08:48Z) - An Embarrassingly Simple Approach for LLM with Strong ASR Capacity [56.30595787061546]
我々は,音声基礎エンコーダと大規模言語モデル(LLM)を用いて,音声処理の分野で最も重要な課題の1つを解決することに注力する。
最近の研究は、音声エンコーダの出力を時間的に圧縮したり、プロジェクタのモーダルアライメントに対処したり、LLMのパラメータ効率の良い微調整を利用するといった複雑な設計をしている。
そこで本研究では,市販の音声エンコーダLLMと,トレーニング可能な唯一の線形プロジェクタの単純な構成がASRタスクに適しているのに対して,繊細な設計は必要ないことを発見した。
論文 参考訳(メタデータ) (2024-02-13T23:25:04Z) - NetLLM: Adapting Large Language Models for Networking [36.61572542761661]
我々は,ネットワーク問題を解決するために,大規模言語モデルを効率的に適応する最初のフレームワークであるNetLLMを提案する。
ネットワークへのLLM適応におけるNetLLMの有効性を実証し、適応されたLLMが最先端のアルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2024-02-04T04:21:34Z) - Large Multi-Modal Models (LMMs) as Universal Foundation Models for
AI-Native Wireless Systems [57.41621687431203]
大規模言語モデル (LLM) と基礎モデルは6Gシステムのゲームチェンジャーとして最近注目されている。
本稿では,人工知能(AI)ネイティブネットワークの展開に適したユニバーサルファンデーションモデルを設計するための包括的ビジョンを提案する。
論文 参考訳(メタデータ) (2024-01-30T00:21:41Z) - Knowledge Fusion of Large Language Models [73.28202188100646]
本稿では,大規模言語モデル(LLM)における知識融合の概念を紹介する。
我々は、それらの集合的知識と独特な強みを外部化し、それによってターゲットモデルの能力が、どのソースLLMよりも高められるようにします。
この結果から,LLMの融合により,推論やコモンセンス,コード生成など,対象モデルの性能が向上することが確認された。
論文 参考訳(メタデータ) (2024-01-19T05:02:46Z) - Deep Learning Assisted Multiuser MIMO Load Modulated Systems for
Enhanced Downlink mmWave Communications [68.96633803796003]
本稿では, マルチユーザ負荷変調アレイ (MU-LMA) に着目し, マイクロウェーブ (mmWave) マルチインプット・マルチアウトプット (MIMO) システムにおいて, マルチユーザ負荷変調アレイ (MU-LMA) の小型化とコスト削減を図っている。
ダウンリンクMU-LMAの既存のプリコーディングアルゴリズムは、自由度と複雑なシステム構成の低下に悩まされるサブアレイ構造化(SAS)送信機に依存している。
本稿では,FAS (Full-array Structured) 送信機を用いたMU-LMAシステムを提案し,それに応じて2つのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-11-08T08:54:56Z) - SLM Lab: A Comprehensive Benchmark and Modular Software Framework for
Reproducible Deep Reinforcement Learning [8.830479021890575]
再現性強化学習(RL)研究のためのソフトウェアフレームワークであるSLM Labを紹介する。
SLM Labは多くのRLアルゴリズムを実装し、同期および非同期並列実験実行を提供する。
本研究では、SLM Labの設計選択を提示し、それを総合的な単一コードベースRLアルゴリズムベンチマークを作成するために利用する。
論文 参考訳(メタデータ) (2019-12-28T16:29:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。