論文の概要: Meta-Reinforcement Learning via Buffering Graph Signatures for Live
Video Streaming Events
- arxiv url: http://arxiv.org/abs/2111.09412v1
- Date: Sun, 3 Oct 2021 14:03:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-12 16:07:59.200231
- Title: Meta-Reinforcement Learning via Buffering Graph Signatures for Live
Video Streaming Events
- Title(参考訳): ライブビデオストリーミングイベントのためのバッファリンググラフシグネチャによるメタ強化学習
- Authors: Stefanos Antaris, Dimitrios Rafailidis, Sarunas Girdzijauskas
- Abstract要約: 本稿では,ライブビデオストリーミングイベントに参加する視聴者間のネットワークのキャパシティの予測に適応するメタラーニングモデルを提案する。
実世界の3つのライブビデオストリーミングイベントにおけるリンクウェイト予測タスクについて,提案モデルの評価を行った。
- 参考スコア(独自算出の注目度): 4.332367445046418
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this study, we present a meta-learning model to adapt the predictions of
the network's capacity between viewers who participate in a live video
streaming event. We propose the MELANIE model, where an event is formulated as
a Markov Decision Process, performing meta-learning on reinforcement learning
tasks. By considering a new event as a task, we design an actor-critic learning
scheme to compute the optimal policy on estimating the viewers' high-bandwidth
connections. To ensure fast adaptation to new connections or changes among
viewers during an event, we implement a prioritized replay memory buffer based
on the Kullback-Leibler divergence of the reward/throughput of the viewers'
connections. Moreover, we adopt a model-agnostic meta-learning framework to
generate a global model from past events. As viewers scarcely participate in
several events, the challenge resides on how to account for the low structural
similarity of different events. To combat this issue, we design a graph
signature buffer to calculate the structural similarities of several streaming
events and adjust the training of the global model accordingly. We evaluate the
proposed model on the link weight prediction task on three real-world datasets
of live video streaming events. Our experiments demonstrate the effectiveness
of our proposed model, with an average relative gain of 25% against
state-of-the-art strategies. For reproduction purposes, our evaluation datasets
and implementation are publicly available at
https://github.com/stefanosantaris/melanie
- Abstract(参考訳): 本研究では,ライブビデオストリーミングイベントに参加する視聴者間でのネットワークのキャパシティの予測に適応するメタラーニングモデルを提案する。
我々は,イベントをマルコフ決定プロセスとして定式化し,強化学習タスクにおけるメタラーニングを行うMELANIEモデルを提案する。
新たなイベントをタスクとして考慮し、視聴者の高帯域接続を推定する最適なポリシーを算出するためのアクタ批判学習方式を設計する。
イベント中に新しいコネクションや視聴者間の変更を迅速に適応するために、視聴者のコネクションの報酬/スループットのKullback-Leibler分散に基づいて優先順位付けされたリプレイメモリバッファを実装する。
さらに,過去のイベントからグローバルモデルを生成するために,モデルに依存しないメタ学習フレームワークを採用する。
視聴者はいくつかのイベントにほとんど参加しないため、異なるイベントの低い構造的類似性を説明する方法が課題となっている。
この問題に対処するために,複数のストリーミングイベントの構造的類似性を計算し,それに応じてグローバルモデルのトレーニングを調整するグラフ署名バッファを設計する。
ライブビデオストリーミングイベントの3つの実世界のデータセットにおけるリンクウェイト予測タスクについて,提案モデルの評価を行った。
提案モデルの有効性を実証し, 最先端戦略に対する平均相対的な利益率25%を示した。
再現のために、評価データセットと実装はhttps://github.com/stefanosantaris/melanieで公開されています。
関連論文リスト
- Learning from One Continuous Video Stream [70.30084026960819]
1つの連続ビデオストリームからオンライン学習のためのフレームワークを導入する。
連続するビデオフレーム間の高い相関を考えると、これは大きな課題となる。
プリトレーニングとシングルストリーム評価を切り替える実用的で柔軟な方法として,ピクセル・ツー・ピクセル・モデリングを採用している。
論文 参考訳(メタデータ) (2023-12-01T14:03:30Z) - ALP: Action-Aware Embodied Learning for Perception [60.64801970249279]
認知のための行動認識型身体学習(ALP)について紹介する。
ALPは、強化学習ポリシーと逆ダイナミクス予測目標を最適化することにより、行動情報を表現学習に組み込む。
ALPは、複数の下流認識タスクにおいて、既存のベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-16T21:51:04Z) - A Control-Centric Benchmark for Video Prediction [69.22614362800692]
本稿では,アクション条件付きビデオ予測のベンチマークを,制御ベンチマークの形式で提案する。
私たちのベンチマークには、11のタスクカテゴリと310のタスクインスタンス定義を備えたシミュレーション環境が含まれています。
次に、ベンチマークを活用して、スケールするモデルサイズ、トレーニングデータの量、モデルアンサンブルの影響を調査します。
論文 参考訳(メタデータ) (2023-04-26T17:59:45Z) - Leveraging the Video-level Semantic Consistency of Event for
Audio-visual Event Localization [8.530561069113716]
AVEローカライゼーションタスクのためのビデオレベルのセマンティック・コンセンサス・ガイダンス・ネットワークを提案する。
クロスモーダルなイベント表現抽出器と、モーダル内のセマンティック一貫性向上器の2つのコンポーネントから構成される。
我々は、パブリックなAVVデータセット上で広範な実験を行い、完全に教師された設定と弱い設定の両方において最先端の手法より優れています。
論文 参考訳(メタデータ) (2022-10-11T08:15:57Z) - A Deep Graph Reinforcement Learning Model for Improving User Experience
in Live Video Streaming [7.852895577861326]
本稿では,ライブビデオストリーミングイベントにおけるユーザエクスペリエンスの予測と改善を目的としたディープグラフ強化学習モデルを提案する。
我々のモデルは、最初のストリーミング分で、高品質な体験を持つ視聴者を少なくとも75%増加させることができる。
論文 参考訳(メタデータ) (2021-07-28T19:53:05Z) - EAN: Event Adaptive Network for Enhanced Action Recognition [66.81780707955852]
本稿では,映像コンテンツの動的性質を調査するための統合された行動認識フレームワークを提案する。
まず、局所的な手がかりを抽出する際に、動的スケールの時空間カーネルを生成し、多様な事象を適応的に適合させる。
第2に、これらのキューを正確にグローバルなビデオ表現に集約するために、トランスフォーマーによって選択されたいくつかの前景オブジェクト間のインタラクションのみをマイニングすることを提案する。
論文 参考訳(メタデータ) (2021-07-22T15:57:18Z) - Multi-Task Learning for User Engagement and Adoption in Live Video
Streaming Events [7.5413579967970605]
ライブビデオストリーミングイベントの時刻を選択するために,マルチタスク深層強化学習モデルを提案する。
我々は、視聴者の関与と採用を独立したタスクとみなし、共通の方針を学ぶために統一的な損失関数を定式化する。
本実験は,いくつかの最先端戦略と比較して提案手法の有効性を実証するものである。
論文 参考訳(メタデータ) (2021-06-18T18:30:22Z) - CoCon: Cooperative-Contrastive Learning [52.342936645996765]
自己教師付き視覚表現学習は効率的な映像分析の鍵である。
最近の画像表現の学習の成功は、コントラスト学習がこの課題に取り組むための有望なフレームワークであることを示唆している。
コントラスト学習の協調的バリエーションを導入し、ビュー間の相補的な情報を活用する。
論文 参考訳(メタデータ) (2021-04-30T05:46:02Z) - EGAD: Evolving Graph Representation Learning with Self-Attention and
Knowledge Distillation for Live Video Streaming Events [4.332367445046418]
本稿では,ライブビデオストリーミングイベントにおける視聴者間の接続のネットワーク容量を正確に予測するために,重み付きグラフ上に動的グラフ表現学習モデルを提案する。
本稿では,連続的なグラフ畳み込みネットワーク間の重み付けに自己注意機構を導入することにより,グラフの進化を捉えるニューラルネットワークアーキテクチャEGADを提案する。
論文 参考訳(メタデータ) (2020-11-11T11:16:52Z) - Action Localization through Continual Predictive Learning [14.582013761620738]
本稿では,自己監督のための特徴レベルの予測を用いた連続学習に基づく新しいアプローチを提案する。
我々は、CNNエンコーダと組み合わされたLSTMのスタックと、新しいアテンション機構を用いて、ビデオ内のイベントをモデル化し、このモデルを使用して将来のフレームの高レベル機能を予測する。
この自己教師型フレームワークは他のアプローチほど複雑ではないが、ラベリングとローカライゼーションの両方で堅牢な視覚表現を学ぶのに非常に効果的である。
論文 参考訳(メタデータ) (2020-03-26T23:32:43Z) - Exploiting the Matching Information in the Support Set for Few Shot
Event Classification [66.31312496170139]
数ショットの学習セットに基づくイベント分類について検討する。
本稿では,学習過程におけるサポートセットを効果的に活用する新たなトレーニング手法を提案する。
2つのベンチマークECデータセットを用いた実験の結果,提案手法は,イベント分類の精度を最大10%向上できることがわかった。
論文 参考訳(メタデータ) (2020-02-13T00:40:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。