論文の概要: An End-to-End Integrated Computation and Communication Architecture for
Goal-oriented Networking: A Perspective on Live Surveillance Video
- arxiv url: http://arxiv.org/abs/2204.01987v1
- Date: Tue, 5 Apr 2022 04:59:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-06 14:15:51.884277
- Title: An End-to-End Integrated Computation and Communication Architecture for
Goal-oriented Networking: A Perspective on Live Surveillance Video
- Title(参考訳): ゴール指向ネットワークのためのエンドツーエンド統合型計算・通信アーキテクチャ:ライブ監視ビデオの展望
- Authors: Suvadip Batabyal, Ozgur Ercetin
- Abstract要約: 本研究では,ライブフィードから重要なイベントをリアルタイムに識別するための状況認識ストリーミングを提案する。
提案手法は,2160p (UHD)ビデオに対して,送信機に必要な電力消費量を38.5%削減できることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Real-time video surveillance has become a crucial technology for smart
cities, made possible through the large-scale deployment of mobile and fixed
video cameras. In this paper, we propose situation-aware streaming, for
real-time identification of important events from live-feeds at the source
rather than a cloud based analysis. For this, we first identify the frames
containing a specific situation and assign them a high scale-of-importance
(SI). The identification is made at the source using a tiny neural network
(having a small number of hidden layers), which incurs a small computational
resource, albeit at the cost of accuracy. The frames with a high SI value are
then streamed with a certain required Signal-to-Noise-Ratio (SNR) to retain the
frame quality, while the remaining ones are transmitted with a small SNR. The
received frames are then analyzed using a deep neural network (with many hidden
layers) to extract the situation accurately. We show that the proposed scheme
is able to reduce the required power consumption of the transmitter by 38.5%
for 2160p (UHD) video, while achieving a classification accuracy of 97.5%, for
the given situation.
- Abstract(参考訳): リアルタイムビデオサーベイランスは、モバイルおよび固定ビデオカメラの大規模展開を通じて、スマートシティにとって重要な技術となっている。
本稿では,クラウドベースの分析ではなく,ソースのライブフィードから重要なイベントをリアルタイムに識別する,状況対応型ストリーミングを提案する。
そこで我々はまず,特定の状況を含むフレームを識別し,それらを高尺度(SI)に割り当てる。
この識別は(少数の隠れた層を持つ)小さなニューラルネットワークを使用してソースで行われ、精度の犠牲はあるものの、小さな計算リソースを発生させる。
高いSI値のフレームは、フレーム品質を維持するために所要のSNR(Signal-to-Noise-Ratio)でストリームされ、残りのフレームは小さなSNRで送信される。
受信されたフレームはディープニューラルネットワーク(多くの隠れレイヤを含む)を使用して分析され、状況を正確に抽出する。
提案手法は,2160p (uhd) 映像に対して, 送信機に必要な消費電力を38.5%削減できると同時に, 97.5%の識別精度が得られることを示した。
関連論文リスト
- Temporal-Spatial Processing of Event Camera Data via Delay-Loop Reservoir Neural Network [0.11309478649967238]
遅延ループ貯水池ニューラルネットを用いたビデオ処理の先行研究を動機とする予測について検討した。
本稿では,この新たな発見を利用して,イベントカメラ分類のための遅延ループ貯水池ニューラルネットワークの設計をガイドする。
論文 参考訳(メタデータ) (2024-02-12T16:24:13Z) - DroneAttention: Sparse Weighted Temporal Attention for Drone-Camera
Based Activity Recognition [2.705905918316948]
ドローン搭載カメラを用いた人間行動認識(HAR)は近年,コンピュータビジョン研究コミュニティから大きな関心を集めている。
本研究では, 疎サンプリングされたビデオフレームをグローバルに重み付けした時間的注意力を得るために, 新たにSparse Weighted Temporal Attention (SWTA) モジュールを提案する。
提案されたモデルでは、各データセットで72.76%、92.56%、78.86%の精度が得られた。
論文 参考訳(メタデータ) (2022-12-07T00:33:40Z) - Scalable Neural Video Representations with Learnable Positional Features [73.51591757726493]
我々は,学習可能な位置特徴(NVP)を用いて,映像を潜時符号として効果的に再生するニューラル表現の訓練方法を示す。
一般的なUVGベンチマークにおけるNVPの優位性を実証し,先行技術と比較して,NVPは2倍の速度(5分以内)で走行するだけでなく,符号化品質も34.07rightarrow$34.57(PSNR測定値で測定)に上回っている。
論文 参考訳(メタデータ) (2022-10-13T08:15:08Z) - Neighbourhood Representative Sampling for Efficient End-to-end Video
Quality Assessment [60.57703721744873]
リアルタイムビデオの高解像度化は、VQA(Deep Video Quality Assessment)の効率性と精度のジレンマを示す
そこで本研究では,空間時空間格子型ミニキューブサンプリング(St-GMS)を統一的に提案し,新しいタイプのフラグメントを抽出する。
フラグメントとFANetにより、提案された効率的なエンドツーエンドのFAST-VQAとFasterVQAは、既存のVQAベンチマークよりも大幅にパフォーマンスが向上した。
論文 参考訳(メタデータ) (2022-10-11T11:38:07Z) - STIP: A SpatioTemporal Information-Preserving and Perception-Augmented
Model for High-Resolution Video Prediction [78.129039340528]
本稿では、上記の2つの問題を解決するために、時空間情報保存・知覚拡張モデル(STIP)を提案する。
提案モデルは,特徴抽出と状態遷移中の映像の時間的情報を保存することを目的としている。
実験結果から,提案したSTIPは,様々な最先端手法と比較して,より良好な映像品質で映像を予測できることが示唆された。
論文 参考訳(メタデータ) (2022-06-09T09:49:04Z) - A Study of Designing Compact Audio-Visual Wake Word Spotting System
Based on Iterative Fine-Tuning in Neural Network Pruning [57.28467469709369]
視覚情報を利用した小型音声覚醒単語スポッティング(WWS)システムの設計について検討する。
繰り返し微調整方式(LTH-IF)で抽選券仮説を通したニューラルネットワークプルーニング戦略を導入する。
提案システムでは,ノイズ条件の異なる単一モード(オーディオのみ,ビデオのみ)システムに対して,大幅な性能向上を実現している。
論文 参考訳(メタデータ) (2022-02-17T08:26:25Z) - CANS: Communication Limited Camera Network Self-Configuration for
Intelligent Industrial Surveillance [8.360870648463653]
リアルタイムおよびインテリジェントなカメラネットワークによるビデオ監視には、大量のビデオデータによる計算集約的な視覚検出タスクが含まれる。
複数のビデオストリームは、エッジデバイスとカメラネットワークのリンク上で限られた通信リソースを競う。
ビデオ監視の適応型カメラネットワーク自己設定法(CANS)を提案する。
論文 参考訳(メタデータ) (2021-09-13T01:54:33Z) - Fast Motion Understanding with Spatiotemporal Neural Networks and
Dynamic Vision Sensors [99.94079901071163]
本稿では,高速な動きを推論するための動的視覚センサ(DVS)システムを提案する。
ロボットが15m/s以上の速度で接近する小さな物体に反応するケースを考察する。
我々は,23.4m/sで24.73degの誤差を$theta$,18.4mmの平均離散半径予測誤差,衝突予測誤差に対する25.03%の中央値で移動した玩具ダートについて,本システムの結果を強調した。
論文 参考訳(メタデータ) (2020-11-18T17:55:07Z) - MS-RANAS: Multi-Scale Resource-Aware Neural Architecture Search [94.80212602202518]
我々は,MS-RANAS(Multi-Scale Resource-Aware Neural Architecture Search)を提案する。
我々は,検索コストの削減を図るために,ワンショットのアーキテクチャ探索手法を採用した。
我々は精度-速度トレードオフの観点から最先端の結果を得る。
論文 参考訳(メタデータ) (2020-09-29T11:56:01Z) - HyNNA: Improved Performance for Neuromorphic Vision Sensor based
Surveillance using Hybrid Neural Network Architecture [7.293414498855147]
領域提案のための形態素画像処理アルゴリズムを用いて,最近提案されたハイブリッドイベントフレームアプローチを改善した。
また、様々な畳み込みニューラルネットワーク(CNN)アーキテクチャを探索することにより、オブジェクト検出と分類の低消費電力要求にも対処する。
具体的には、対象検出フレームワークから得られた結果を最先端の低出力NVS監視システムと比較し、63.1%から82.16%の改善精度を示した。
論文 参考訳(メタデータ) (2020-03-19T07:18:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。