論文の概要: Elixir: A system to enhance data quality for multiple analytics on a
video stream
- arxiv url: http://arxiv.org/abs/2212.04061v1
- Date: Thu, 8 Dec 2022 04:04:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-09 16:19:15.857189
- Title: Elixir: A system to enhance data quality for multiple analytics on a
video stream
- Title(参考訳): Elixir: ビデオストリーム上の複数の分析のためのデータ品質向上システム
- Authors: Sibendu Paul, Kunal Rao, Giuseppe Coviello, Murugan Sankaradas, Oliver
Po, Y. Charlie Hu, Srimat T. Chakradhar
- Abstract要約: マルチAU設定では、カメラ設定の変更が異なるAUのパフォーマンスに不均等な影響を及ぼす。
Elixirは、ビデオストリーム上の複数の分析のために、ビデオストリームの品質を向上させるシステムである。
- 参考スコア(独自算出の注目度): 2.0741583844039915
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: IoT sensors, especially video cameras, are ubiquitously deployed around the
world to perform a variety of computer vision tasks in several verticals
including retail, healthcare, safety and security, transportation,
manufacturing, etc. To amortize their high deployment effort and cost, it is
desirable to perform multiple video analytics tasks, which we refer to as
Analytical Units (AUs), off the video feed coming out of every camera. In this
paper, we first show that in a multi-AU setting, changing the camera setting
has disproportionate impact on different AUs performance. In particular, the
optimal setting for one AU may severely degrade the performance for another AU,
and further the impact on different AUs varies as the environmental condition
changes. We then present Elixir, a system to enhance the video stream quality
for multiple analytics on a video stream. Elixir leverages Multi-Objective
Reinforcement Learning (MORL), where the RL agent caters to the objectives from
different AUs and adjusts the camera setting to simultaneously enhance the
performance of all AUs. To define the multiple objectives in MORL, we develop
new AU-specific quality estimator values for each individual AU. We evaluate
Elixir through real-world experiments on a testbed with three cameras deployed
next to each other (overlooking a large enterprise parking lot) running Elixir
and two baseline approaches, respectively. Elixir correctly detects 7.1%
(22,068) and 5.0% (15,731) more cars, 94% (551) and 72% (478) more faces, and
670.4% (4975) and 158.6% (3507) more persons than the default-setting and
time-sharing approaches, respectively. It also detects 115 license plates, far
more than the time-sharing approach (7) and the default setting (0).
- Abstract(参考訳): IoTセンサー、特にビデオカメラは、小売、ヘルスケア、安全とセキュリティ、輸送、製造など、さまざまな分野のコンピュータビジョンタスクを実行するために世界中に展開されている。
高いデプロイ労力とコストを償却するには、分析ユニット(aus)と呼ばれる複数のビデオ分析タスクを、カメラから出てくるビデオフィードから実行することが望ましい。
本稿では,マルチAU設定において,カメラ設定の変更が異なるAU性能に与える影響を最初に示す。
特に、あるAUの最適設定は他のAUの性能を著しく低下させ、さらに環境条件が変化するにつれて異なるAUへの影響が変化する。
次に,ビデオストリームにおける複数解析のための映像ストリーム品質を向上させるシステムelixirを提案する。
ElixirはMORL(Multi-Objective Reinforcement Learning)を活用し、RLエージェントは異なるAUの目的に適合し、カメラ設定を調整し、すべてのAUの性能を同時に向上させる。
MORLにおける複数の目的を定義するために、各AUに対して新しいAU固有の品質推定値を開発する。
本研究では,elixirを2つのベースラインアプローチで運用する3台のカメラを隣り合って配置したテストベッド上で,実世界の実験を通してelixirを評価する。
elixirは7.1% (22,068) と5.% (15,731) を正しく検出し、94% (551) と72% (478) は顔、そして670.4% (4975) と158.6% (3507) はそれぞれデフォルト設定とタイムシェアリングのアプローチよりも多く検出する。
また、タイムシェアリングアプローチ(7)とデフォルト設定(0)よりもはるかに多い115のライセンスプレートも検出する。
関連論文リスト
- ActionAtlas: A VideoQA Benchmark for Domain-specialized Action Recognition [111.32822459456793]
ActionAtlasは、様々なスポーツのショートビデオを含むビデオ質問応答ベンチマークである。
このデータセットには、56のスポーツで580のユニークなアクションを示す934の動画が含まれており、合計1896のアクションが選択できる。
我々は、このベンチマークでオープンでプロプライエタリな基礎モデルを評価し、最高のモデルであるGPT-4oが45.52%の精度を達成することを発見した。
論文 参考訳(メタデータ) (2024-10-08T07:55:09Z) - City-Scale Multi-Camera Vehicle Tracking System with Improved Self-Supervised Camera Link Model [0.0]
本稿では,自己監督型カメラリンクモデルを用いた,革新的なマルチカメラ車両追跡システムを提案する。
提案手法は,61.07%のIDF1スコアを有するCityFlow V2ベンチマークにおいて,自動カメラリンク方式の最先端性を実現する。
論文 参考訳(メタデータ) (2024-05-18T17:28:35Z) - AZTR: Aerial Video Action Recognition with Auto Zoom and Temporal
Reasoning [63.628195002143734]
本稿では,空中映像の行動認識のための新しい手法を提案する。
提案手法は,UAVを用いて撮影したビデオに対して設計されており,エッジやモバイルデバイス上でも動作可能である。
我々は、カスタマイズされたオートズームを使用して、人間のターゲットを自動的に識別し、適切にスケールする学習ベースのアプローチを提案する。
論文 参考訳(メタデータ) (2023-03-02T21:24:19Z) - APT: Adaptive Perceptual quality based camera Tuning using reinforcement
learning [2.0741583844039915]
画質の悪いビデオのキャプチャは、分析の精度に悪影響を及ぼす。
本稿では,高品質なビデオキャプチャを実現するために,カメラパラメータを調整した新しい強化学習システムを提案する。
その結果、環境条件やシーン内容が変化したときの洞察の精度を復元する。
論文 参考訳(メタデータ) (2022-11-15T21:02:48Z) - Multi-Target Active Object Tracking with Monte Carlo Tree Search and
Target Motion Modeling [126.26121580486289]
本研究は,マルチターゲットアクティブオブジェクトトラッキング(AOT)に重点を置いており,複数のターゲットと環境に複数のカメラが配置されている。
目標は、全カメラの全体的な対象範囲を最大化することです。
スポーツゲームをシミュレートするマルチターゲット2D環境を構築し,本手法が対象範囲を効果的に改善できることを示す実験結果を得た。
論文 参考訳(メタデータ) (2022-05-07T05:08:15Z) - SurroundDepth: Entangling Surrounding Views for Self-Supervised
Multi-Camera Depth Estimation [101.55622133406446]
本研究では,複数の周囲からの情報を組み込んだSurroundDepth法を提案し,カメラ間の深度マップの予測を行う。
具体的には、周囲のすべてのビューを処理し、複数のビューから情報を効果的に融合するクロスビュー変換器を提案する。
実験において,本手法は,挑戦的なマルチカメラ深度推定データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-04-07T17:58:47Z) - Coordinate-Aligned Multi-Camera Collaboration for Active Multi-Object
Tracking [114.16306938870055]
AMOTのための座標整列型マルチカメラ協調システムを提案する。
提案手法では,各カメラをエージェントとみなし,マルチエージェント強化学習ソリューションを用いてAMOTに対処する。
本システムでは,ベースライン法を8.9%上回る71.88%のカバレッジを実現している。
論文 参考訳(メタデータ) (2022-02-22T13:28:40Z) - SVDistNet: Self-Supervised Near-Field Distance Estimation on Surround
View Fisheye Cameras [30.480562747903186]
シーンジオメトリの360deg認識は、特に駐車場や都市部の運転シナリオで、自動運転に不可欠です。
カメラパラメータを条件入力として用いる,新しいカメラジオメトリー適応型マルチスケール畳み込み法を提案する。
魚眼ウッドキャップサラウンドビューデータセットに対する我々のアプローチを評価し,従来のアプローチよりも大幅に改善した。
論文 参考訳(メタデータ) (2021-04-09T15:20:20Z) - OmniDet: Surround View Cameras based Multi-task Visual Perception
Network for Autonomous Driving [10.3540046389057]
本研究は,未修正魚眼画像のマルチタスク視覚知覚ネットワークを提案する。
自動運転システムに必要な6つの主要なタスクで構成されている。
共同で訓練されたモデルは、それぞれのタスクバージョンよりも優れた性能を示す。
論文 参考訳(メタデータ) (2021-02-15T10:46:24Z) - Multi-Drone based Single Object Tracking with Agent Sharing Network [74.8198920355117]
マルチDroneシングルオブジェクト追跡データセットは、92のビデオクリップと113,918の高解像度フレーム、63のビデオクリップ、145,875の高解像度フレームで構成されている。
エージェント共有ネットワーク(ASNet)は、複数のドローンからターゲットの自己教師付きテンプレート共有とビューアウェア融合によって提案される。
論文 参考訳(メタデータ) (2020-03-16T03:27:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。