論文の概要: ILCAS: Imitation Learning-Based Configuration-Adaptive Streaming for
Live Video Analytics with Cross-Camera Collaboration
- arxiv url: http://arxiv.org/abs/2308.10068v1
- Date: Sat, 19 Aug 2023 16:20:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-22 17:57:00.439088
- Title: ILCAS: Imitation Learning-Based Configuration-Adaptive Streaming for
Live Video Analytics with Cross-Camera Collaboration
- Title(参考訳): ILCAS: クロスカメラコラボレーションによるライブビデオ分析のためのシミュレーション学習に基づく構成適応ストリーミング
- Authors: Duo Wu, Dayou Zhang, Miao Zhang, Ruoyu Zhang, Fangxin Wang, Shuguang
Cui
- Abstract要約: 本稿では,最初の模倣学習 (IL) に基づく構成適応型ライブビデオ分析 (VA) ストリーミングシステムを提案する。
ILCASは、オフラインの最適ポリシーとして設計された専門家から収集されたデモでエージェントを訓練する。
ILCASは最先端のソリューションに比べて優れており、平均精度は2-20.9%改善し、チャンクアップロードラグは19.9-85.3%削減された。
- 参考スコア(独自算出の注目度): 53.29046841099947
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The high-accuracy and resource-intensive deep neural networks (DNNs) have
been widely adopted by live video analytics (VA), where camera videos are
streamed over the network to resource-rich edge/cloud servers for DNN
inference. Common video encoding configurations (e.g., resolution and frame
rate) have been identified with significant impacts on striking the balance
between bandwidth consumption and inference accuracy and therefore their
adaption scheme has been a focus of optimization. However, previous
profiling-based solutions suffer from high profiling cost, while existing deep
reinforcement learning (DRL) based solutions may achieve poor performance due
to the usage of fixed reward function for training the agent, which fails to
craft the application goals in various scenarios. In this paper, we propose
ILCAS, the first imitation learning (IL) based configuration-adaptive VA
streaming system. Unlike DRL-based solutions, ILCAS trains the agent with
demonstrations collected from the expert which is designed as an offline
optimal policy that solves the configuration adaption problem through dynamic
programming. To tackle the challenge of video content dynamics, ILCAS derives
motion feature maps based on motion vectors which allow ILCAS to visually
``perceive'' video content changes. Moreover, ILCAS incorporates a cross-camera
collaboration scheme to exploit the spatio-temporal correlations of cameras for
more proper configuration selection. Extensive experiments confirm the
superiority of ILCAS compared with state-of-the-art solutions, with 2-20.9%
improvement of mean accuracy and 19.9-85.3% reduction of chunk upload lag.
- Abstract(参考訳): dnn(high-accuracy and resource-intensive deep neural network)は、ライブビデオ分析(va)によって広く採用されている。
一般的なビデオエンコーディング構成(解像度やフレームレートなど)は、帯域幅の消費と推論精度のバランスに重大な影響を与えていると認識されており、その適応方式は最適化の焦点となっている。
しかし、従来のプロファイリングベースのソリューションは高いプロファイリングコストに悩まされる一方、既存のディープ強化学習(DRL)ベースのソリューションは、エージェントのトレーニングに固定報酬関数を用いることにより、様々なシナリオでアプリケーション目標を達成できなかったため、性能が低下する可能性がある。
本稿では,最初の模倣学習(il)ベースの構成適応型vaストリーミングシステムであるilcasを提案する。
DRLベースのソリューションとは異なり、ILCASは、動的プログラミングによって構成適応問題を解決するオフライン最適ポリシーとして設計された専門家から収集されたデモンストレーションでエージェントを訓練する。
映像コンテンツダイナミクスの課題に取り組むため、ilcasは動画コンテンツの変化を視覚的に‘知覚’できるモーションベクトルに基づくモーション特徴マップを導出する。
さらに、ILCASは、カメラの時空間相関を利用して、より適切な構成選択を行うためのクロスカメラ協調方式を取り入れている。
大規模な実験は、最先端のソリューションと比較してICCASの優位性を確認し、平均精度は2-20.9%改善し、チャンクアップロードラグは19.9-85.3%削減された。
関連論文リスト
- Task-Oriented Real-time Visual Inference for IoVT Systems: A Co-design Framework of Neural Networks and Edge Deployment [61.20689382879937]
タスク指向エッジコンピューティングは、データ分析をエッジにシフトすることで、この問題に対処する。
既存の手法は、高いモデル性能と低いリソース消費のバランスをとるのに苦労している。
ニューラルネットワークアーキテクチャを最適化する新しい協調設計フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-29T19:02:54Z) - Multi-agent Assessment with QoS Enhancement for HD Map Updates in a Vehicular Network [8.853779271331508]
Reinforcement Learning (RL)アルゴリズムは、車載アドホックネットワーク(VANET)のオフロードプロセスにおける課題に対処するために使用されている。
DQN(Deep Q-learning)とAV(Actor-critic at the autonomous vehicle)は、計算負荷の増加を招き、計算装置に大きな負担とコストを発生させる可能性がある。
本稿では,分散マルチエージェント環境におけるQラーニング単一エージェントソリューションを利用したアプリケーションのスケーラビリティを評価する。
論文 参考訳(メタデータ) (2024-07-31T09:17:09Z) - Doubly-Dynamic ISAC Precoding for Vehicular Networks: A Constrained Deep Reinforcement Learning (CDRL) Approach [11.770137653756697]
車両ネットワークを支えるためにはISAC技術が不可欠である。
このシナリオの通信チャネルは時間変化を示し、潜在的なターゲットは急速に移動し、二重ダイナミクスをもたらす。
制約付き強化学習を用いてISACプリコーダの動的更新を容易にすることを提案する。
論文 参考訳(メタデータ) (2024-05-23T09:19:14Z) - Edge Computing Enabled Real-Time Video Analysis via Adaptive
Spatial-Temporal Semantic Filtering [18.55091203660391]
本稿では,インテリジェント・ビジュアル・デバイスのためのエッジ・コンピューティングによるリアルタイム映像解析システムを提案する。
提案システムは,追跡支援対象検出モジュール(TAODM)と興味あるモジュールの領域(ROIM)から構成される。
TAODMは、トラッキングアルゴリズムで各ビデオフレームを局所的に処理するか、オブジェクト検出モデルにより推論されたエッジサーバにオフロードするか、オフロード決定を適応的に決定する。
論文 参考訳(メタデータ) (2024-02-29T07:42:03Z) - Digital Twin-Enhanced Deep Reinforcement Learning for Resource
Management in Networks Slicing [46.65030115953947]
本稿では,デジタルツインと強化学習エージェントからなるフレームワークを提案する。
具体的には、歴史的データとニューラルネットワークを用いて、実環境の状態変動則をシミュレートするデジタルツインモデルを構築することを提案する。
また、このフレームワークをオフラインで強化学習に拡張し、歴史的データのみに基づいたインテリジェントな意思決定にソリューションを利用できるようにします。
論文 参考訳(メタデータ) (2023-11-28T15:25:14Z) - Learned Video Compression via Heterogeneous Deformable Compensation
Network [78.72508633457392]
不安定な圧縮性能の問題に対処するために,不均一変形補償戦略(HDCVC)を用いた学習ビデオ圧縮フレームワークを提案する。
より具体的には、提案アルゴリズムは隣接する2つのフレームから特徴を抽出し、コンテンツ近傍の不均一な変形(HetDeform)カーネルオフセットを推定する。
実験結果から,HDCVCは最近の最先端の学習ビデオ圧縮手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2022-07-11T02:31:31Z) - STIP: A SpatioTemporal Information-Preserving and Perception-Augmented
Model for High-Resolution Video Prediction [78.129039340528]
本稿では、上記の2つの問題を解決するために、時空間情報保存・知覚拡張モデル(STIP)を提案する。
提案モデルは,特徴抽出と状態遷移中の映像の時間的情報を保存することを目的としている。
実験結果から,提案したSTIPは,様々な最先端手法と比較して,より良好な映像品質で映像を予測できることが示唆された。
論文 参考訳(メタデータ) (2022-06-09T09:49:04Z) - Enhancing Object Detection for Autonomous Driving by Optimizing Anchor
Generation and Addressing Class Imbalance [0.0]
本研究では,より高速なR-CNNに基づく拡張型2次元物体検出器を提案する。
より高速なr-cnnに対する修正は計算コストを増加させず、他のアンカーベースの検出フレームワークを最適化するために容易に拡張できる。
論文 参考訳(メタデータ) (2021-04-08T16:58:31Z) - Deep Learning-based Resource Allocation For Device-to-Device
Communication [66.74874646973593]
デバイス間通信(D2D)を用いたマルチチャネルセルシステムにおいて,リソース割り当ての最適化のためのフレームワークを提案する。
任意のチャネル条件に対する最適な資源配分戦略をディープニューラルネットワーク(DNN)モデルにより近似する深層学習(DL)フレームワークを提案する。
シミュレーションの結果,提案手法のリアルタイム性能を低速で実現できることが確認された。
論文 参考訳(メタデータ) (2020-11-25T14:19:23Z) - Video Face Super-Resolution with Motion-Adaptive Feedback Cell [90.73821618795512]
深部畳み込みニューラルネットワーク(CNN)の発展により,ビデオ超解像法(VSR)は近年,顕著な成功を収めている。
本稿では,動作補償を効率的に捕捉し,適応的にネットワークにフィードバックする,シンプルで効果的なブロックである動き適応型フィードバックセル(MAFC)を提案する。
論文 参考訳(メタデータ) (2020-02-15T13:14:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。