論文の概要: A Deep Graph Reinforcement Learning Model for Improving User Experience
in Live Video Streaming
- arxiv url: http://arxiv.org/abs/2107.13619v1
- Date: Wed, 28 Jul 2021 19:53:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-31 00:28:51.116368
- Title: A Deep Graph Reinforcement Learning Model for Improving User Experience
in Live Video Streaming
- Title(参考訳): ライブビデオストリーミングにおけるユーザエクスペリエンス向上のためのディープグラフ強化学習モデル
- Authors: Stefanos Antaris, Dimitrios Rafailidis, Sarunas Girdzijauskas
- Abstract要約: 本稿では,ライブビデオストリーミングイベントにおけるユーザエクスペリエンスの予測と改善を目的としたディープグラフ強化学習モデルを提案する。
我々のモデルは、最初のストリーミング分で、高品質な体験を持つ視聴者を少なくとも75%増加させることができる。
- 参考スコア(独自算出の注目度): 7.852895577861326
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper we present a deep graph reinforcement learning model to predict
and improve the user experience during a live video streaming event,
orchestrated by an agent/tracker. We first formulate the user experience
prediction problem as a classification task, accounting for the fact that most
of the viewers at the beginning of an event have poor quality of experience due
to low-bandwidth connections and limited interactions with the tracker. In our
model we consider different factors that influence the quality of user
experience and train the proposed model on diverse state-action transitions
when viewers interact with the tracker. In addition, provided that past events
have various user experience characteristics we follow a gradient boosting
strategy to compute a global model that learns from different events. Our
experiments with three real-world datasets of live video streaming events
demonstrate the superiority of the proposed model against several baseline
strategies. Moreover, as the majority of the viewers at the beginning of an
event has poor experience, we show that our model can significantly increase
the number of viewers with high quality experience by at least 75% over the
first streaming minutes. Our evaluation datasets and implementation are
publicly available at https://publicresearch.z13.web.core.windows.net
- Abstract(参考訳): 本稿では,エージェント/トラッカーによって編成されたライブビデオストリーミングイベントにおいて,ユーザエクスペリエンスを予測し,改善するディープグラフ強化学習モデルを提案する。
まず,ユーザエクスペリエンス予測問題を分類タスクとして定式化し,イベント開始時の視聴者のほとんどが,低帯域幅接続やトラッカとのインタラクションの制限により,経験の質が低かったことを説明する。
本モデルでは,ユーザエクスペリエンスの質に影響を及ぼすさまざまな要因を考察し,ビューアがトラッカーと対話する場合の多様な状態遷移を学習する。
さらに、過去のイベントがさまざまなユーザエクスペリエンス特性を持っている場合、異なるイベントから学習するグローバルモデルを計算するための勾配ブースティング戦略に従う。
ライブビデオストリーミングイベントの3つの実世界データセットを用いた実験は,提案モデルが複数のベースライン戦略に対して優れていることを示す。
さらに,イベント開始時の視聴者の大多数は経験が乏しいため,我々のモデルでは,初回ストリーミング分で,高品質な体験を持つ視聴者を少なくとも75%増やすことができることを示した。
評価データセットと実装はhttps://publicresearch.z13.web.core.windows.netで公開されています。
関連論文リスト
- SWaT: Statistical Modeling of Video Watch Time through User Behavior Analysis [15.246875830547056]
本稿では,ビデオの視聴時の様々なユーザの行動仮定を統計的視聴時間モデルに変換するホワイトボックス統計フレームワークを提案する。
当社のモデルは、2つのパブリックデータセット、大規模なオフライン産業データセット、および数億人のデイリーアクティブユーザを持つ短いビデオプラットフォーム上でオンラインA/Bテストで広範囲にテストしています。
論文 参考訳(メタデータ) (2024-08-14T18:19:35Z) - MMBee: Live Streaming Gift-Sending Recommendations via Multi-Modal Fusion and Behaviour Expansion [18.499672566131355]
ギフトインタラクションの正確なモデリングは、ユーザのエクスペリエンスを向上するだけでなく、ストリーマーの収益も増大させる。
従来のレコメンデーション問題として,ライブストリーミングギフト予測に関する先行研究がある。
実時間マルチモーダル・フュージョンとビヘイビア・エクスパンジョンに基づくMMBeeを提案する。
論文 参考訳(メタデータ) (2024-06-15T04:59:00Z) - Early Action Recognition with Action Prototypes [62.826125870298306]
本稿では,各クラスに対するフルアクションのプロトタイプ表現を学習する新しいモデルを提案する。
映像を短いクリップに分解し、視覚エンコーダがそれぞれのクリップから特徴を独立して抽出する。
その後、デコーダは、最終クラスの予測のために、すべてのクリップからオンラインのファッション機能として集約される。
論文 参考訳(メタデータ) (2023-12-11T18:31:13Z) - Learning from One Continuous Video Stream [70.30084026960819]
1つの連続ビデオストリームからオンライン学習のためのフレームワークを導入する。
連続するビデオフレーム間の高い相関を考えると、これは大きな課題となる。
プリトレーニングとシングルストリーム評価を切り替える実用的で柔軟な方法として,ピクセル・ツー・ピクセル・モデリングを採用している。
論文 参考訳(メタデータ) (2023-12-01T14:03:30Z) - Click-Based Student Performance Prediction: A Clustering Guided
Meta-Learning Approach [10.962724342736042]
クリックストリーム行動からオンライン授業における学生の知識獲得を予測する問題について検討する。
ビデオ内のクイズ性能を予測する手法は,開発する3つの重要なアイデアに基づいている。
論文 参考訳(メタデータ) (2021-10-28T14:03:29Z) - Meta-Reinforcement Learning via Buffering Graph Signatures for Live
Video Streaming Events [4.332367445046418]
本稿では,ライブビデオストリーミングイベントに参加する視聴者間のネットワークのキャパシティの予測に適応するメタラーニングモデルを提案する。
実世界の3つのライブビデオストリーミングイベントにおけるリンクウェイト予測タスクについて,提案モデルの評価を行った。
論文 参考訳(メタデータ) (2021-10-03T14:03:22Z) - Multi-Task Learning for User Engagement and Adoption in Live Video
Streaming Events [7.5413579967970605]
ライブビデオストリーミングイベントの時刻を選択するために,マルチタスク深層強化学習モデルを提案する。
我々は、視聴者の関与と採用を独立したタスクとみなし、共通の方針を学ぶために統一的な損失関数を定式化する。
本実験は,いくつかの最先端戦略と比較して提案手法の有効性を実証するものである。
論文 参考訳(メタデータ) (2021-06-18T18:30:22Z) - CoCon: Cooperative-Contrastive Learning [52.342936645996765]
自己教師付き視覚表現学習は効率的な映像分析の鍵である。
最近の画像表現の学習の成功は、コントラスト学習がこの課題に取り組むための有望なフレームワークであることを示唆している。
コントラスト学習の協調的バリエーションを導入し、ビュー間の相補的な情報を活用する。
論文 参考訳(メタデータ) (2021-04-30T05:46:02Z) - Reducing Representation Drift in Online Continual Learning [87.71558506591937]
私たちは、エージェントが制限されたメモリと計算で変化する分布から学ぶ必要があるオンライン連続学習パラダイムを研究します。
この作業では、入ってくるデータストリームに未観測のクラスサンプルが導入されることにより、事前に観測されたデータの表現の変化に焦点を合わせます。
論文 参考訳(メタデータ) (2021-04-11T15:19:30Z) - Learning Transferrable Parameters for Long-tailed Sequential User
Behavior Modeling [70.64257515361972]
テールユーザに注力することで、より多くのメリットをもたらし、長いテールの問題に対処できる、と私たちは主張しています。
具体的には、頭部から尾部への知識伝達を容易にするために、勾配アライメントを提案し、敵のトレーニングスキームを採用する。
論文 参考訳(メタデータ) (2020-10-22T03:12:02Z) - Omni-supervised Facial Expression Recognition via Distilled Data [120.11782405714234]
ネットワークトレーニングにおいて,信頼度の高いサンプルを多量のラベルのないデータで活用するためのオムニ教師付き学習を提案する。
我々は,新しいデータセットが学習したFERモデルの能力を大幅に向上させることができることを実験的に検証した。
そこで本研究では,生成したデータセットを複数のクラスワイド画像に圧縮するために,データセット蒸留戦略を適用することを提案する。
論文 参考訳(メタデータ) (2020-05-18T09:36:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。