論文の概要: CANS: Communication Limited Camera Network Self-Configuration for
Intelligent Industrial Surveillance
- arxiv url: http://arxiv.org/abs/2109.05665v1
- Date: Mon, 13 Sep 2021 01:54:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-14 15:22:05.635005
- Title: CANS: Communication Limited Camera Network Self-Configuration for
Intelligent Industrial Surveillance
- Title(参考訳): CANS:知的産業監視のための通信限定カメラネットワークの自己設定
- Authors: Jingzheng Tu, Qimin Xu and Cailian Chen
- Abstract要約: リアルタイムおよびインテリジェントなカメラネットワークによるビデオ監視には、大量のビデオデータによる計算集約的な視覚検出タスクが含まれる。
複数のビデオストリームは、エッジデバイスとカメラネットワークのリンク上で限られた通信リソースを競う。
ビデオ監視の適応型カメラネットワーク自己設定法(CANS)を提案する。
- 参考スコア(独自算出の注目度): 8.360870648463653
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Realtime and intelligent video surveillance via camera networks involve
computation-intensive vision detection tasks with massive video data, which is
crucial for safety in the edge-enabled industrial Internet of Things (IIoT).
Multiple video streams compete for limited communication resources on the link
between edge devices and camera networks, resulting in considerable
communication congestion. It postpones the completion time and degrades the
accuracy of vision detection tasks. Thus, achieving high accuracy of vision
detection tasks under the communication constraints and vision task deadline
constraints is challenging. Previous works focus on single camera configuration
to balance the tradeoff between accuracy and processing time of detection tasks
by setting video quality parameters. In this paper, an adaptive camera network
self-configuration method (CANS) of video surveillance is proposed to cope with
multiple video streams of heterogeneous quality of service (QoS) demands for
edge-enabled IIoT. Moreover, it adapts to video content and network dynamics.
Specifically, the tradeoff between two key performance metrics, \emph{i.e.,}
accuracy and latency, is formulated as an NP-hard optimization problem with
latency constraints. Simulation on real-world surveillance datasets
demonstrates that the proposed CANS method achieves low end-to-end latency (13
ms on average) with high accuracy (92\% on average) with network dynamics. The
results validate the effectiveness of the CANS.
- Abstract(参考訳): リアルタイムかつインテリジェントなカメラネットワークによるビデオ監視には、エッジ対応の産業用IoT(Industrial Internet of Things, IIoT)において、巨大なビデオデータによる計算集約的な視覚検出タスクが関与する。
複数のビデオストリームはエッジデバイスとカメラネットワークのリンク上で限られた通信資源を競い合うため、かなりの通信渋滞が発生する。
完了時間を延期し、視覚検出タスクの精度を低下させる。
したがって、コミュニケーション制約やビジョンタスク期限制約の下での視覚検出タスクの高精度化は困難である。
以前の研究では、ビデオ品質パラメータの設定による検出タスクの精度と処理時間のトレードオフをバランスさせるために、単一のカメラ構成に焦点を当てていた。
本稿では,映像監視の適応型カメラネットワーク自己設定法(CANS)を提案し,エッジ対応IIoTに対する不均質なサービス品質(QoS)要求の複数のビデオストリームに対処する。
さらに、ビデオコンテンツやネットワークのダイナミックスにも適応する。
具体的には,2つの重要なパフォーマンス指標である 'emph{i.e.} の精度とレイテンシのトレードオフをNPハード最適化問題として定式化する。
実世界の監視データセットのシミュレーションにより、提案手法はネットワークダイナミクスを用いて、エンドツーエンドのレイテンシ(平均13ミリ秒)を高い精度(平均92倍)で達成することを示した。
結果は缶の有効性を検証する。
関連論文リスト
- Task-Oriented Real-time Visual Inference for IoVT Systems: A Co-design Framework of Neural Networks and Edge Deployment [61.20689382879937]
タスク指向エッジコンピューティングは、データ分析をエッジにシフトすることで、この問題に対処する。
既存の手法は、高いモデル性能と低いリソース消費のバランスをとるのに苦労している。
ニューラルネットワークアーキテクチャを最適化する新しい協調設計フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-29T19:02:54Z) - Integration of Communication and Computational Imaging [49.2442836992307]
遠隔認識のためのコミュニケーション・計算画像(ICCI)を統合した新しいフレームワークを提案する。
ICCIフレームワークは、情報ソースの生成から最終ビジョンタスクの実行までの情報損失を最小限に抑えるために、全リンク情報転送最適化を行う。
80km27バンドのハイパースペクトル映像の知覚速度は30fpsである。
論文 参考訳(メタデータ) (2024-10-25T09:19:59Z) - Satellite Streaming Video QoE Prediction: A Real-World Subjective Database and Network-Level Prediction Models [59.061552498630874]
LIVE-Viasat Real-World Satellite QoE Databaseを紹介する。
このデータベースは、現実世界のストリーミングサービスから記録された179のビデオで構成されている。
本稿では,QoE予測モデルの有効性を評価することで,この新たな資源の有用性を実証する。
また、ネットワークパラメータを予測された人間の知覚スコアにマッピングする新しいモデルを作成しました。
論文 参考訳(メタデータ) (2024-10-17T18:22:50Z) - PNAS-MOT: Multi-Modal Object Tracking with Pareto Neural Architecture Search [64.28335667655129]
複数の物体追跡は、自律運転において重要な課題である。
トラッキングの精度が向上するにつれて、ニューラルネットワークはますます複雑になり、レイテンシが高いため、実際の運転シナリオにおける実践的な応用に課題が生じる。
本稿では,ニューラル・アーキテクチャ・サーチ(NAS)手法を用いて追跡のための効率的なアーキテクチャを探索し,比較的高い精度を維持しつつ,低リアルタイム遅延を実現することを目的とした。
論文 参考訳(メタデータ) (2024-03-23T04:18:49Z) - Edge Computing Enabled Real-Time Video Analysis via Adaptive
Spatial-Temporal Semantic Filtering [18.55091203660391]
本稿では,インテリジェント・ビジュアル・デバイスのためのエッジ・コンピューティングによるリアルタイム映像解析システムを提案する。
提案システムは,追跡支援対象検出モジュール(TAODM)と興味あるモジュールの領域(ROIM)から構成される。
TAODMは、トラッキングアルゴリズムで各ビデオフレームを局所的に処理するか、オブジェクト検出モデルにより推論されたエッジサーバにオフロードするか、オフロード決定を適応的に決定する。
論文 参考訳(メタデータ) (2024-02-29T07:42:03Z) - Enhanced adaptive cross-layer scheme for low latency HEVC streaming over
Vehicular Ad-hoc Networks (VANETs) [2.2124180701409233]
HEVCはVehicular Ad-hoc Networks (VANET)を通じてリアルタイムビデオストリーミングを約束している
低遅延制約下でのVANETにおけるHEVCビデオストリーミングのエンドツーエンド性能を改善するために,低複雑性のクロス層機構を提案する。
提案機構は802.11pで採用されているEDCAと比較して、受信時の映像品質とエンドツーエンド遅延に関する大幅な改善を提供する。
論文 参考訳(メタデータ) (2023-11-05T14:19:38Z) - Task-Oriented Communication for Edge Video Analytics [11.03999024164301]
本稿では,エッジビデオ分析のためのタスク指向通信フレームワークを提案する。
複数のデバイスが視覚センサデータを収集し、その情報機能をエッジサーバに送信して処理する。
提案手法は,映像データのタスク関連情報を効果的に符号化し,既存の手法よりも高いレート性能のトレードオフを実現する。
論文 参考訳(メタデータ) (2022-11-25T12:09:12Z) - Argus++: Robust Real-time Activity Detection for Unconstrained Video
Streams with Overlapping Cube Proposals [85.76513755331318]
Argus++は、制約のないビデオストリームを分析するための堅牢なリアルタイムアクティビティ検出システムである。
システム全体としては、スタンドアロンのコンシューマレベルのハードウェア上でのリアルタイム処理に最適化されている。
論文 参考訳(メタデータ) (2022-01-14T03:35:22Z) - Parallel Detection for Efficient Video Analytics at the Edge [5.547133811014004]
ディープニューラルネットワーク(DNN)訓練対象検出器は、エッジでのリアルタイムビデオ分析のためにミッションクリティカルシステムに広くデプロイされている。
ミッションクリティカルエッジサービスにおける一般的なパフォーマンス要件は、エッジデバイス上でのオンラインオブジェクト検出のほぼリアルタイムレイテンシである。
本稿では,エッジシステムにおける高速物体検出のためのマルチモデルマルチデバイス検出並列性を利用して,これらの問題に対処する。
論文 参考訳(メタデータ) (2021-07-27T02:50:46Z) - Coherent Loss: A Generic Framework for Stable Video Segmentation [103.78087255807482]
ビデオセグメンテーションの結果の視覚的品質を,ジッタリングアーティファクトがいかに劣化させるかを検討する。
本稿では,ニューラルネットワークの性能向上を目的とした汎用フレームワークを備えたコヒーレントロスを提案する。
論文 参考訳(メタデータ) (2020-10-25T10:48:28Z) - CONVINCE: Collaborative Cross-Camera Video Analytics at the Edge [1.5469452301122173]
本稿では,カメラ間の協調的なビデオ分析パイプラインを実現するため,カメラを集合体として見るための新しいアプローチであるCONVINCEを紹介する。
以上の結果から, CONVINCEは記録フレームの約25%を送信し, オブジェクト識別精度が$sim$91%であることを示す。
論文 参考訳(メタデータ) (2020-02-05T23:55:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。