論文の概要: Machine Learning Technique Predicting Video Streaming Views to Reduce
Cost of Cloud Services
- arxiv url: http://arxiv.org/abs/2210.09078v1
- Date: Mon, 17 Oct 2022 13:28:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 16:56:32.589116
- Title: Machine Learning Technique Predicting Video Streaming Views to Reduce
Cost of Cloud Services
- Title(参考訳): クラウドサービスのコスト削減を目的としたビデオストリーミングビュー予測のための機械学習技術
- Authors: Mahmoud Darwich
- Abstract要約: 本稿では,ビデオの人気予測を利用してストレージコストを算出するアルゴリズムを提案する。
実験の結果、すべてのビデオストリームの保存と比較してクラウドサービスのコストが15%削減された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Video streams tremendously occupied the highest portion of online traffic.
Multiple versions of a video are created to fit the user's device
specifications. In cloud storage, Keeping all versions of frequently accessed
video streams in the repository for the long term imposes a significant cost
paid by video streaming providers. Generally, the popularity of a video changes
each period of time, which means the number of views received by a video could
be dropped, thus, the video must be deleted from the repository. Therefore, in
this paper, we develop a method that predicts the popularity of each video
stream in the repository in the next period. On the other hand, we propose an
algorithm that utilizes the predicted popularity of a video to compute the
storage cost, and then it decides whether the video will be kept or deleted
from the cloud repository. The experiment results show a cost reduction of the
cloud services by 15% compared to keeping all video streams.
- Abstract(参考訳): ビデオストリームはオンライントラフィックの最も高い部分を占めていた。
ビデオの複数のバージョンがユーザーのデバイス仕様に適合するように作成される。
クラウドストレージでは、レポジトリ内で頻繁にアクセスされるビデオストリームのすべてのバージョンを長期にわたって保持することは、ビデオストリーミングプロバイダが支払うかなりのコストを課す。
一般的には、ビデオの人気は一定時間ごとに変化するため、ビデオが受信したビューの数を減少させることができるため、ビデオはリポジトリから削除される必要がある。
そこで本稿では,リポジトリ内の各ビデオストリームの人気を次の期間に予測する手法を提案する。
一方,ビデオの人気予測を利用してストレージコストを計算し,クラウドリポジトリからビデオが保存されるか削除されるかを決定するアルゴリズムを提案する。
実験の結果、すべてのビデオストリームの保存と比較してクラウドサービスのコストが15%削減された。
関連論文リスト
- Video Generation Beyond a Single Clip [76.5306434379088]
ビデオ生成モデルは、実際のビデオの長さと比較して比較的短いビデオクリップしか生成できない。
多様なコンテンツや複数のイベントをカバーした長いビデオを生成するために,ビデオ生成プロセスを制御するための追加のガイダンスを提案する。
提案手法は、固定時間ウィンドウ内でリアルな映像を生成することに焦点を当てた、既存の映像生成の取り組みを補完するものである。
論文 参考訳(メタデータ) (2023-04-15T06:17:30Z) - Towards High-Quality and Efficient Video Super-Resolution via
Spatial-Temporal Data Overfitting [27.302681897961588]
ディープ畳み込みニューラルネットワーク(DNN)はコンピュータビジョンの様々な分野で広く使われている。
高品質で効率的なビデオ解像度アップスケーリングタスクのための新しい手法を提案する。
市販の携帯電話にモデルをデプロイし,実験結果から,映像品質の高いリアルタイムビデオ解像度を実現することが確認された。
論文 参考訳(メタデータ) (2023-03-15T02:40:02Z) - Compressed Vision for Efficient Video Understanding [83.97689018324732]
本稿では,2時間ビデオの処理が可能なハードウェアを用いて,時間長動画の研究を可能にするフレームワークを提案する。
私たちは、JPEGなどの標準的なビデオ圧縮をニューラル圧縮に置き換え、圧縮されたビデオを通常のビデオネットワークへの入力として直接フィードできることを示します。
論文 参考訳(メタデータ) (2022-10-06T15:35:49Z) - Speeding Up Action Recognition Using Dynamic Accumulation of Residuals
in Compressed Domain [2.062593640149623]
ビデオ処理アルゴリズムに関して、時間的冗長性と生ビデオの重大性は、最も一般的な2つの問題である。
本稿では,光部分復号処理によって得られる圧縮ビデオで直接利用できる残差データの利用法を提案する。
圧縮された領域に蓄積された残留物にのみニューラルネットワークを適用することで、性能が向上する一方、分類結果は生のビデオアプローチと非常に競合する。
論文 参考訳(メタデータ) (2022-09-29T13:08:49Z) - Memory Efficient Temporal & Visual Graph Model for Unsupervised Video
Domain Adaptation [50.158454960223274]
既存のビデオドメイン適応(DA)手法は、ビデオフレームの時間的組み合わせを全て格納するか、ソースとターゲットのビデオをペアにする必要がある。
本稿では,メモリ効率の高いグラフベースビデオDA手法を提案する。
論文 参考訳(メタデータ) (2022-08-13T02:56:10Z) - VPN: Video Provenance Network for Robust Content Attribution [72.12494245048504]
VPN - オンラインで共有されているビデオから出典情報を復元するコンテンツ属性手法を提案する。
完全長あるいは切り離されたビデオクエリを用いて,このようなビデオのマッチングに頑健な検索埋め込みを学習する。
一度ビデオクリップの信頼できるデータベースにマッチすると、そのクリップの出所に関する関連情報がユーザに提示される。
論文 参考訳(メタデータ) (2021-09-21T09:07:05Z) - Self-Conditioned Probabilistic Learning of Video Rescaling [70.10092286301997]
本稿では,ビデオ再スケーリングのための自己条件付き確率的フレームワークを提案し,ペアダウンスケーリングとアップスケーリングの手順を同時に学習する。
我々は、その条件付き確率を強い時空間事前情報に基づいて最大化することにより、ダウンスケーリングで失われた情報のエントロピーを減少させる。
我々は、このフレームワークを、非微分産業損失コーデックの勾配推定器として提案する、損失のあるビデオ圧縮システムに拡張する。
論文 参考訳(メタデータ) (2021-07-24T15:57:15Z) - Efficient video integrity analysis through container characterization [77.45740041478743]
本稿では,ビデオ操作に使用するソフトウェアをコンテナベースで識別する手法を提案する。
提案手法は効率的かつ効果的であり,その決定の簡易な説明も可能である。
プリストインを改ざんされたビデオと区別し、編集ソフトを分類することで97.6%の精度を達成している。
論文 参考訳(メタデータ) (2021-01-26T14:13:39Z) - A Sparse Sampling-based framework for Semantic Fast-Forward of
First-Person Videos [2.362412515574206]
ほとんどのアップロードされたビデオは忘れられ、コンピューターのフォルダーやウェブサイトに埋もれてしまった。
重み付き最小再構成問題として定式化された適応フレーム選択を提案する。
本手法は,最先端技術と同等の関連情報とスムーズさを保持することができるが,処理時間が少ない。
論文 参考訳(メタデータ) (2020-09-21T18:36:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。