論文の概要: Palantir: Towards Efficient Super Resolution for Ultra-high-definition Live Streaming
- arxiv url: http://arxiv.org/abs/2408.06152v1
- Date: Mon, 12 Aug 2024 13:48:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-13 13:13:27.377152
- Title: Palantir: Towards Efficient Super Resolution for Ultra-high-definition Live Streaming
- Title(参考訳): Palantir: 超高精細ライブストリーミングのための高効率超解像を目指して
- Authors: Xinqi Jin, Zhui Zhu, Xikai Sun, Fan Dang, Jiangchuan Liu, Jingao Xu, Kebin Liu, Xinlei Chen, Yunhao Liu,
- Abstract要約: Palantirは、きめ細かいパッチレベルのスケジューリングを備えた、最初のニューラルネットワークによるライブストリーミングシステムである。
Palantirは、エンドツーエンドのレイテンシ要件の5.7%未満で、無視可能なスケジュール遅延を発生させる。
- 参考スコア(独自算出の注目度): 29.567573296006515
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural enhancement through super-resolution deep neural networks opens up new possibilities for ultra-high-definition live streaming over existing encoding and networking infrastructure. Yet, the heavy SR DNN inference overhead leads to severe deployment challenges. To reduce the overhead, existing systems propose to apply DNN-based SR only on selected anchor frames while upscaling non-anchor frames via the lightweight reusing-based SR approach. However, frame-level scheduling is coarse-grained and fails to deliver optimal efficiency. In this work, we propose Palantir, the first neural-enhanced UHD live streaming system with fine-grained patch-level scheduling. In the presented solutions, two novel techniques are incorporated to make good scheduling decisions for inference overhead optimization and reduce the scheduling latency. Firstly, under the guidance of our pioneering and theoretical analysis, Palantir constructs a directed acyclic graph (DAG) for lightweight yet accurate quality estimation under any possible anchor patch set. Secondly, to further optimize the scheduling latency, Palantir improves parallelizability by refactoring the computation subprocedure of the estimation process into a sparse matrix-matrix multiplication operation. The evaluation results suggest that Palantir incurs a negligible scheduling latency accounting for less than 5.7% of the end-to-end latency requirement. When compared to the state-of-the-art real-time frame-level scheduling strategy, Palantir reduces the energy overhead of SR-integrated mobile clients by 38.1% at most (and 22.4% on average) and the monetary costs of cloud-based SR by 80.1% at most (and 38.4% on average).
- Abstract(参考訳): 超高解像度ディープニューラルネットワークによるニューラルエンハンスメントは、既存のエンコーディングとネットワークインフラストラクチャ上での超高精細ライブストリーミングの新たな可能性を開く。
しかし、重いSR DNN推論のオーバーヘッドは、重大なデプロイメントの課題に繋がる。
オーバヘッドを低減するため、既存のシステムは、軽量リユースベースのSRアプローチを用いて非アンカーフレームをアップスケーリングしながら、選択したアンカーフレームにのみDNNベースのSRを適用することを提案する。
しかし、フレームレベルのスケジューリングは粗い粒度であり、最適な効率が得られない。
本研究では,ニューラルネットワークによるUHDライブストリーミングシステムPalantirを提案する。
提案手法では,予測オーバヘッド最適化のためのスケジューリング決定を良好に行い,スケジューリング遅延を低減するために,2つの新しい手法が組み込まれている。
まず、先駆的および理論的解析の指導のもと、Palantirは任意のアンカーパッチセットの下で軽量かつ正確な品質推定のための有向非巡回グラフ(DAG)を構築した。
第2に、スケジューリング遅延をさらに最適化するために、Palantirは、推定プロセスの計算サブプロデューサをスパース行列行列行列乗算演算にリファクタリングすることにより、並列化性を向上させる。
評価結果は、Palantirが、エンドツーエンドのレイテンシ要件の5.7%未満で、無視可能なスケジュール遅延を発生していることを示唆している。
最先端のリアルタイムフレームレベルのスケジューリング戦略と比較すると、PalantirはSR統合されたモバイルクライアントのエネルギーオーバーヘッドを最大38.1%(平均22.4%)、クラウドベースのSRの金融コストを最大80.1%(平均38.4%)削減している。
関連論文リスト
- Entanglement Distribution Delay Optimization in Quantum Networks with Distillation [51.53291671169632]
量子ネットワーク(QN)は、分散量子コンピューティングとセンシングアプリケーションを実現するために絡み合った状態を分散する。
QSリソース割り当てフレームワークは、エンド・ツー・エンド(e2e)の忠実度を高め、最小レートと忠実度を満たすために提案される。
論文 参考訳(メタデータ) (2024-05-15T02:04:22Z) - Fast Computation of Superquantile-Constrained Optimization Through Implicit Scenario Reduction [8.756303407351464]
本稿では、大規模最適化問題を解決するために、高速でスケーラブルで堅牢な2階計算フレームワークを提案する。
超量子ベースの最適化では、テール条件予測を計算するために、すべてのシナリオで評価されたランダム関数のランク付けが必要となる。
論文 参考訳(メタデータ) (2024-05-13T17:46:30Z) - Direct Training Needs Regularisation: Anytime Optimal Inference Spiking Neural Network [23.434563009813218]
スパイキングニューラルネットワーク(SNN)は,次世代のニューラルネットワーク(ANN)として認識される
空間時間正規化(STR)と呼ばれる新しい正規化手法を導入する。
STRは各段階におけるスパイクの強さと膜電位の比を調節する。
これは、トレーニング中の空間的および時間的パフォーマンスを効果的にバランスさせ、最終的にはAnytime Optimal Inference (AOI) SNNとなる。
論文 参考訳(メタデータ) (2024-04-15T15:57:01Z) - Client Orchestration and Cost-Efficient Joint Optimization for
NOMA-Enabled Hierarchical Federated Learning [55.49099125128281]
半同期クラウドモデルアグリゲーションの下で非直交多重アクセス(NOMA)を実現するHFLシステムを提案する。
提案手法は,HFLの性能改善と総コスト削減に関するベンチマークよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-11-03T13:34:44Z) - A Unified Framework for Soft Threshold Pruning [27.853698217792456]
反復収縮閾値アルゴリズム(ISTA)を用いた暗黙の最適化問題としてソフトしきい値プルーニングを再構成する。
我々は,フレームワークに基づくしきい値スケジューリングの詳細な研究を通じて,最適なしきい値スケジューラを導出する。
原理的には、導出プルーニングアルゴリズムは、SGDで訓練された任意の数学的モデルをスパース化することができる。
論文 参考訳(メタデータ) (2023-02-25T08:16:14Z) - Federated Learning for Energy-limited Wireless Networks: A Partial Model
Aggregation Approach [79.59560136273917]
デバイス間の限られた通信資源、帯域幅とエネルギー、およびデータ不均一性は、連邦学習(FL)の主要なボトルネックである
まず、部分モデルアグリゲーション(PMA)を用いた新しいFLフレームワークを考案する。
提案されたPMA-FLは、2つの典型的な異種データセットにおいて2.72%と11.6%の精度を改善する。
論文 参考訳(メタデータ) (2022-04-20T19:09:52Z) - An Adaptive Device-Edge Co-Inference Framework Based on Soft
Actor-Critic [72.35307086274912]
高次元パラメータモデルと大規模数学的計算は、特にIoT(Internet of Things)デバイスにおける実行効率を制限する。
本稿では,ソフトポリシーの繰り返しによるエフェキシット点,エフェキシット点,エンフェキシット点を生成する離散的(SAC-d)のための新しい深層強化学習(DRL)-ソフトアクタ批判法を提案する。
レイテンシと精度を意識した報酬設計に基づいて、そのような計算は動的無線チャンネルや任意の処理のような複雑な環境によく適応でき、5G URLをサポートすることができる。
論文 参考訳(メタデータ) (2022-01-09T09:31:50Z) - GOSH: Task Scheduling Using Deep Surrogate Models in Fog Computing
Environments [12.215537834860699]
本稿では,新しいスケジューラGOSHを紹介する。
GOSHは2階勾配に基づく最適化アプローチを使用して、レイテンシの向上とイテレーション回数の削減を実現している。
エネルギー消費, 応答時間, SLA違反に関しては, それぞれ18, 27, 82%の大幅な改善が見られた。
論文 参考訳(メタデータ) (2021-12-16T14:36:34Z) - Tailored Learning-Based Scheduling for Kubernetes-Oriented Edge-Cloud
System [54.588242387136376]
エッジクラウドシステムのための学習ベースのスケジューリングフレームワークkaisを紹介する。
まず,分散した要求ディスパッチに対応するために,協調型マルチエージェントアクタ-クリティックアルゴリズムを設計する。
次に,多種多様なシステムスケールと構造について,グラフニューラルネットワークを用いてシステム状態情報を埋め込む。
第3に、リクエストディスパッチとサービスオーケストレーションを調和させる2段階のスケジューリングメカニズムを採用します。
論文 参考訳(メタデータ) (2021-01-17T03:45:25Z) - Adaptive Subcarrier, Parameter, and Power Allocation for Partitioned
Edge Learning Over Broadband Channels [69.18343801164741]
パーティショニングエッジ学習(PARTEL)は、無線ネットワークにおいてよく知られた分散学習手法であるパラメータサーバトレーニングを実装している。
本稿では、いくつかの補助変数を導入してParticleELを用いてトレーニングできるディープニューラルネットワーク(DNN)モデルについて考察する。
論文 参考訳(メタデータ) (2020-10-08T15:27:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。