論文の概要: VStreamDRLS: Dynamic Graph Representation Learning with Self-Attention
for Enterprise Distributed Video Streaming Solutions
- arxiv url: http://arxiv.org/abs/2011.05671v1
- Date: Wed, 11 Nov 2020 10:00:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-26 23:15:57.467790
- Title: VStreamDRLS: Dynamic Graph Representation Learning with Self-Attention
for Enterprise Distributed Video Streaming Solutions
- Title(参考訳): VStreamDRLS: エンタープライズ分散ビデオストリーミングソリューションのための自己注意型動的グラフ表現学習
- Authors: Stefanos Antaris, Dimitrios Rafailidis
- Abstract要約: VStreamDRLSは、ライブビデオストリーミングイベントのグラフ構造の進化を捉えるための自己注意機構を備えたグラフニューラルネットワークアーキテクチャである。
企業ライブビデオストリーミングイベントによって生成された2つの実世界のデータセットにおけるリンク予測タスクに対する提案手法の評価を行った。
- 参考スコア(独自算出の注目度): 4.568777157687959
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Live video streaming has become a mainstay as a standard communication
solution for several enterprises worldwide. To efficiently stream high-quality
live video content to a large amount of offices, companies employ distributed
video streaming solutions which rely on prior knowledge of the underlying
evolving enterprise network. However, such networks are highly complex and
dynamic. Hence, to optimally coordinate the live video distribution, the
available network capacity between viewers has to be accurately predicted. In
this paper we propose a graph representation learning technique on weighted and
dynamic graphs to predict the network capacity, that is the weights of
connections/links between viewers/nodes. We propose VStreamDRLS, a graph neural
network architecture with a self-attention mechanism to capture the evolution
of the graph structure of live video streaming events. VStreamDRLS employs the
graph convolutional network (GCN) model over the duration of a live video
streaming event and introduces a self-attention mechanism to evolve the GCN
parameters. In doing so, our model focuses on the GCN weights that are relevant
to the evolution of the graph and generate the node representation,
accordingly. We evaluate our proposed approach on the link prediction task on
two real-world datasets, generated by enterprise live video streaming events.
The duration of each event lasted an hour. The experimental results demonstrate
the effectiveness of VStreamDRLS when compared with state-of-the-art
strategies. Our evaluation datasets and implementation are publicly available
at https://github.com/stefanosantaris/vstreamdrls
- Abstract(参考訳): ライブビデオストリーミングは、世界中のいくつかの企業にとって、標準的なコミュニケーションソリューションとして主流となっている。
高品質なライブビデオコンテンツを大量のオフィスに効率的にストリーミングするために、企業は、進化するエンタープライズネットワークの事前知識に依存する分散ビデオストリーミングソリューションを採用している。
しかし、そのようなネットワークは非常に複雑で動的である。
したがって、ライブ映像配信を最適に調整するには、視聴者間のネットワーク容量を正確に予測する必要がある。
本稿では、重み付きおよび動的グラフを用いたグラフ表現学習手法を提案し、視聴者/ノード間の接続/リンクの重みとなるネットワーク容量を予測する。
本稿では,ライブビデオストリーミングイベントのグラフ構造の進化をキャプチャするセルフアテンション機構を備えたグラフニューラルネットワークアーキテクチャであるvstreamdrlsを提案する。
VStreamDRLSはライブビデオストリーミングイベントの間、GCN(Graph Convolutional Network)モデルを採用し、GCNパラメータを進化させる自己保持機構を導入している。
そのため,本モデルでは,グラフの進化に関連するGCN重みに着目し,ノード表現を生成する。
企業ライブビデオストリーミングイベントによって生成された2つの実世界のデータセットにおけるリンク予測タスクに対する提案手法の評価を行った。
各イベントの期間は1時間であった。
実験の結果,vstreamdrlsの有効性を最先端戦略と比較した。
評価データセットと実装はhttps://github.com/stefanosantaris/vstreamdrlsで公開されています。
関連論文リスト
- Hierarchical Graph Pattern Understanding for Zero-Shot VOS [102.21052200245457]
本稿では、ゼロショットビデオオブジェクトセグメンテーション(ZS-VOS)のための新しい階層型グラフニューラルネットワーク(GNN)アーキテクチャを提案する。
構造的関係を捕捉するGNNの強い能力にインスパイアされたHGPUは、運動キュー(すなわち光の流れ)を革新的に活用し、ターゲットフレームの隣人からの高次表現を強化する。
論文 参考訳(メタデータ) (2023-12-15T04:13:21Z) - Constructing Holistic Spatio-Temporal Scene Graph for Video Semantic
Role Labeling [96.64607294592062]
Video Semantic Label Roleing (VidSRL)は、与えられたビデオから健全なイベントを検出することを目的としている。
近年、VidSRLの手法が提案されているが、2つの重要な欠点を負う可能性がある。
論文 参考訳(メタデータ) (2023-08-09T17:20:14Z) - Dynamic Graph Message Passing Networks for Visual Recognition [112.49513303433606]
長距離依存のモデリングは、コンピュータビジョンにおけるシーン理解タスクに不可欠である。
完全連結グラフはそのようなモデリングには有益であるが、計算オーバーヘッドは禁じられている。
本稿では,計算複雑性を大幅に低減する動的グラフメッセージパッシングネットワークを提案する。
論文 参考訳(メタデータ) (2022-09-20T14:41:37Z) - Event and Activity Recognition in Video Surveillance for Cyber-Physical
Systems [0.0]
長期動作パターンは、イベントを認識するタスクにおいて、それ自体が重要な役割を果たす。
本研究では,イベント認識作業において,長期動作パターンのみが重要な役割を担っていることを示す。
時間的特徴のみをハイブリッド畳み込みニューラルネットワーク(CNN)+リカレントニューラルネットワーク(RNN)アーキテクチャで活用する。
論文 参考訳(メタデータ) (2021-11-03T08:30:38Z) - Meta-Reinforcement Learning via Buffering Graph Signatures for Live
Video Streaming Events [4.332367445046418]
本稿では,ライブビデオストリーミングイベントに参加する視聴者間のネットワークのキャパシティの予測に適応するメタラーニングモデルを提案する。
実世界の3つのライブビデオストリーミングイベントにおけるリンクウェイト予測タスクについて,提案モデルの評価を行った。
論文 参考訳(メタデータ) (2021-10-03T14:03:22Z) - Temporal Graph Network Embedding with Causal Anonymous Walks
Representations [54.05212871508062]
本稿では,時間グラフネットワークに基づく動的ネットワーク表現学習のための新しいアプローチを提案する。
評価のために、時間的ネットワーク埋め込みの評価のためのベンチマークパイプラインを提供する。
欧州の大手銀行が提供した実世界のダウンストリームグラフ機械学習タスクにおいて、我々のモデルの適用性と優れた性能を示す。
論文 参考訳(メタデータ) (2021-08-19T15:39:52Z) - Dynamic Graph Convolutional Recurrent Network for Traffic Prediction:
Benchmark and Solution [18.309299822858243]
DGCRN(Dynamic Graph Contemporal Recurrent Network)と呼ばれる新しい交通予測フレームワークを提案する。
DGCRNでは、ハイパーネットワークはノード属性から動的特性を活用して抽出するように設計されている。
我々は、各時間ステップで動的グラフの細かい反復をモデル化する生成法を最初に採用した。
論文 参考訳(メタデータ) (2021-04-30T11:25:43Z) - LaneRCNN: Distributed Representations for Graph-Centric Motion
Forecasting [104.8466438967385]
LaneRCNNはグラフ中心のモーション予測モデルです。
アクターごとのローカルレーングラフ表現を学び、過去の動きとローカルマップのトポロジをエンコードします。
我々はレーングラフに基づいて出力軌跡をパラメータ化し,よりアメニブルな予測パラメータ化を行う。
論文 参考訳(メタデータ) (2021-01-17T11:54:49Z) - VLG-Net: Video-Language Graph Matching Network for Video Grounding [57.6661145190528]
ビデオにおける言語クエリのグラウンディングは、言語クエリに関連する時間間隔(またはモーメント)を特定することを目的としている。
我々はこの問題をアルゴリズム的なグラフマッチング問題に再キャストする。
広範に使用されている3つのデータセットに対して,最先端の接地手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2020-11-19T22:32:03Z) - EGAD: Evolving Graph Representation Learning with Self-Attention and
Knowledge Distillation for Live Video Streaming Events [4.332367445046418]
本稿では,ライブビデオストリーミングイベントにおける視聴者間の接続のネットワーク容量を正確に予測するために,重み付きグラフ上に動的グラフ表現学習モデルを提案する。
本稿では,連続的なグラフ畳み込みネットワーク間の重み付けに自己注意機構を導入することにより,グラフの進化を捉えるニューラルネットワークアーキテクチャEGADを提案する。
論文 参考訳(メタデータ) (2020-11-11T11:16:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。