論文の概要: MadEye: Boosting Live Video Analytics Accuracy with Adaptive Camera
Configurations
- arxiv url: http://arxiv.org/abs/2304.02101v1
- Date: Tue, 4 Apr 2023 19:58:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-06 14:16:40.982928
- Title: MadEye: Boosting Live Video Analytics Accuracy with Adaptive Camera
Configurations
- Title(参考訳): MadEye: 適応カメラ構成によるライブビデオ分析の精度向上
- Authors: Mike Wong, Murali Ramanujam, Guha Balakrishnan, Ravi Netravali
- Abstract要約: 我々は、作業負荷とリソース制約の精度を最大化するために、自動的に向きを適応するカメラサーバシステムMadEyeを提案する。
そこでMadEyeは,コモディティ・パンティルト・ゾーム(PTZ)カメラを用いて,(1)多量の配向空間を高速に探索して実りあるサブセットを識別する探索アルゴリズムを組み込んだ。
- 参考スコア(独自算出の注目度): 9.803087286110182
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Camera orientations (i.e., rotation and zoom) govern the content that a
camera captures in a given scene, which in turn heavily influences the accuracy
of live video analytics pipelines. However, existing analytics approaches leave
this crucial adaptation knob untouched, instead opting to only alter the way
that captured images from fixed orientations are encoded, streamed, and
analyzed. We present MadEye, a camera-server system that automatically and
continually adapts orientations to maximize accuracy for the workload and
resource constraints at hand. To realize this using commodity pan-tilt-zoom
(PTZ) cameras, MadEye embeds (1) a search algorithm that rapidly explores the
massive space of orientations to identify a fruitful subset at each time, and
(2) a novel knowledge distillation strategy to efficiently (with only camera
resources) select the ones that maximize workload accuracy. Experiments on
diverse workloads show that MadEye boosts accuracy by 2.9-25.7% for the same
resource usage, or achieves the same accuracy with 2-3.7x lower resource costs.
- Abstract(参考訳): カメラの向き(回転とズーム)は、カメラが特定のシーンで撮影するコンテンツを制御し、それによってライブビデオ分析パイプラインの精度に大きな影響を及ぼす。
しかし、既存の分析アプローチでは、この重要な適応ノブは未修正のままであり、代わりに、固定方向からのキャプチャされた画像のエンコード、ストリーム、分析の方法を変えるのみを選んだ。
我々は,作業負荷やリソース制約の精度を最大化するために,カメラサーバシステムMadEyeを提案する。
そこでMadEyeは,コモディティ・パンティルト・ゾーム(PTZ)カメラを用いて,(1)多量の配向空間を高速に探索して実りあるサブセットを識別する探索アルゴリズムを組込み,(2)効率よく(カメラ資源のみで)ワークロードの精度を最大化する新しい知識蒸留戦略を考案した。
多様なワークロードの実験では、MadEyeは同じリソース使用量に対して2.9-25.7%の精度を向上し、同じ精度を2-3.7倍のコストで達成している。
関連論文リスト
- Toward Efficient Visual Gyroscopes: Spherical Moments, Harmonics Filtering, and Masking Techniques for Spherical Camera Applications [83.8743080143778]
従来のRGBカメラに比べて視野が広い全方位カメラの統合は、より正確で堅牢な結果をもたらすことが証明されている。
しかし、特徴が欠如し、大きなノイズが重大なエラーを引き起こし、画像の特定の特徴が十分な強度を欠いている状況において、課題が生じる。
本稿では、分析手法とニューラルネットワークアプローチを組み合わせた新しい視覚ジャイロスコープを導入することにより、これらの課題に対処する。
論文 参考訳(メタデータ) (2024-04-02T13:19:06Z) - Neuromorphic Synergy for Video Binarization [54.195375576583864]
バイモーダルオブジェクトは視覚システムによって容易に認識できる情報を埋め込む視覚形式として機能する。
ニューロモルフィックカメラは、動きのぼかしを緩和する新しい機能を提供するが、最初にブルーを脱色し、画像をリアルタイムでバイナライズするのは簡単ではない。
本稿では,イベント空間と画像空間の両方で独立に推論を行うために,バイモーダル目標特性の事前知識を活用するイベントベースバイナリ再構築手法を提案する。
また、このバイナリ画像を高フレームレートバイナリビデオに伝搬する効率的な統合手法も開発している。
論文 参考訳(メタデータ) (2024-02-20T01:43:51Z) - Robust Frame-to-Frame Camera Rotation Estimation in Crowded Scenes [8.061773364318313]
本稿では,携帯型モノクロビデオから,混み合った現実世界のシーンにおけるカメラ回転推定手法を提案する。
我々は、17の動画シーケンスに対して、高精度で厳密に検証された地上真実を持つ新しいデータセットとベンチマークを提供する。
これは、混み合ったシーンに対する強力な新しいパフォーマンスポイントであり、コンピュータビジョンにとって重要な設定である。
論文 参考訳(メタデータ) (2023-09-15T17:44:07Z) - View Consistent Purification for Accurate Cross-View Localization [59.48131378244399]
本稿では,屋外ロボットのための微細な自己局在化手法を提案する。
提案手法は,既存のクロスビューローカライゼーション手法の限界に対処する。
これは、動的環境における知覚を増強する初めての疎視のみの手法である。
論文 参考訳(メタデータ) (2023-08-16T02:51:52Z) - EasyHeC: Accurate and Automatic Hand-eye Calibration via Differentiable
Rendering and Space Exploration [49.90228618894857]
我々は、マーカーレスでホワイトボックスであり、より優れた精度とロバスト性を提供するEasyHeCと呼ばれる手眼校正の新しいアプローチを導入する。
我々は,2つの重要な技術 – レンダリングベースのカメラポーズの最適化と整合性に基づく共同空間探索 – を利用することを提案する。
本評価は,合成および実世界のデータセットにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2023-05-02T03:49:54Z) - PMI Sampler: Patch Similarity Guided Frame Selection for Aerial Action
Recognition [52.78234467516168]
本稿では、隣接フレーム間の動きバイアスを定量化するために、パッチ相互情報(PMI)スコアの概念を導入する。
シフトリークReLuと累積分布関数を用いた適応フレーム選択方式を提案する。
本手法は,UAV-Humanの2.2~13.8%,NEC Droneの6.8%,Diving48データセットの9.0%の相対的な改善を実現している。
論文 参考訳(メタデータ) (2023-04-14T00:01:11Z) - TartanCalib: Iterative Wide-Angle Lens Calibration using Adaptive
SubPixel Refinement of AprilTags [23.568127229446965]
現在の最先端技術による広角レンズの校正は、エッジの極端に歪みがあるため、結果を得られない。
精度の高い広角キャリブレーション手法を提案する。
論文 参考訳(メタデータ) (2022-10-05T18:57:07Z) - Self-Supervised Camera Self-Calibration from Video [34.35533943247917]
汎用カメラモデルの効率的なファミリーを用いてシーケンスごとのキャリブレーションパラメータを回帰する学習アルゴリズムを提案する。
提案手法は,サブピクセル再投射誤差による自己校正を行い,他の学習手法よりも優れる。
論文 参考訳(メタデータ) (2021-12-06T19:42:05Z) - Large-Scale Video Analytics through Object-Level Consolidation [1.299941371793082]
ビデオ分析は、スマートシティや自動運転といった新しいユースケースを可能にする。
ビデオ分析は、スマートシティや自動運転といった新しいユースケースを可能にする。
論文 参考訳(メタデータ) (2021-11-30T14:48:54Z) - Thinking Fast and Slow: Efficient Text-to-Visual Retrieval with
Transformers [115.90778814368703]
目的は,大規模画像とビデオデータセットの言語検索である。
このタスクでは、独立してテキストとビジョンを共同埋め込み空間 a.k.a にマッピングする。
デュアルエンコーダは 検索スケールとして魅力的です
視覚テキスト変換器をクロスアテンションで使用する別のアプローチは、関節埋め込みよりも精度が大幅に向上する。
論文 参考訳(メタデータ) (2021-03-30T17:57:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。