論文の概要: Why is the video analytics accuracy fluctuating, and what can we do
about it?
- arxiv url: http://arxiv.org/abs/2208.12644v1
- Date: Tue, 23 Aug 2022 23:16:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-04 02:04:37.268346
- Title: Why is the video analytics accuracy fluctuating, and what can we do
about it?
- Title(参考訳): なぜビデオ分析の精度が変動するのでしょうか。
- Authors: Sibendu Paul, Kunal Rao, Giuseppe Coviello, Murugan Sankaradas, Oliver
Po, Y. Charlie Hu, Srimat Chakradhar
- Abstract要約: ビデオは一連の画像(フレーム)と考えるのが一般的であり、ビデオ上の同様の分析タスクのためにイメージのみに基づいてトレーニングされたディープニューラルネットワークモデルを再利用する。
本稿では、画像上でうまく機能するディープラーニングモデルが、ビデオ上でもうまく機能する、という信念の飛躍が、実際は欠陥であることを示す。
映像カメラが人間の知覚で変化しないシーンを見ているときでも、映像解析アプリケーションの精度は顕著に変動する。
- 参考スコア(独自算出の注目度): 2.0741583844039915
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: It is a common practice to think of a video as a sequence of images (frames),
and re-use deep neural network models that are trained only on images for
similar analytics tasks on videos. In this paper, we show that this leap of
faith that deep learning models that work well on images will also work well on
videos is actually flawed. We show that even when a video camera is viewing a
scene that is not changing in any human-perceptible way, and we control for
external factors like video compression and environment (lighting), the
accuracy of video analytics application fluctuates noticeably. These
fluctuations occur because successive frames produced by the video camera may
look similar visually, but these frames are perceived quite differently by the
video analytics applications. We observed that the root cause for these
fluctuations is the dynamic camera parameter changes that a video camera
automatically makes in order to capture and produce a visually pleasing video.
The camera inadvertently acts as an unintentional adversary because these
slight changes in the image pixel values in consecutive frames, as we show,
have a noticeably adverse impact on the accuracy of insights from video
analytics tasks that re-use image-trained deep learning models. To address this
inadvertent adversarial effect from the camera, we explore the use of transfer
learning techniques to improve learning in video analytics tasks through the
transfer of knowledge from learning on image analytics tasks. In particular, we
show that our newly trained Yolov5 model reduces fluctuation in object
detection across frames, which leads to better tracking of objects(40% fewer
mistakes in tracking). Our paper also provides new directions and techniques to
mitigate the camera's adversarial effect on deep learning models used for video
analytics applications.
- Abstract(参考訳): ビデオを画像(フレーム)のシーケンスと考え、ビデオ上の同様の分析タスクのために画像のみにトレーニングされたディープニューラルネットワークモデルを再利用するのが一般的なプラクティスである。
本稿では,画像上でうまく機能するディープラーニングモデルがビデオ上でもうまく機能する,という信条の飛躍が,実は欠陥であることを示す。
映像カメラが人間の知覚で変化しないシーンを見ているときでも,映像圧縮や環境(照明)などの外部要因を制御している場合,映像解析アプリケーションの精度は顕著に変動する。
これらのゆらぎは、ビデオカメラによって生成された連続したフレームが視覚的に類似しているように見えるため起こるが、これらのフレームはビデオ分析アプリケーションによって全く異なる知覚を受ける。
これらのゆらぎの根本原因は、映像カメラが自動的に行う動的カメラパラメータが、視覚的に楽しい映像をキャプチャして生成するために変化することであった。
連続フレームにおける画像ピクセル値のわずかな変化は、画像訓練されたディープラーニングモデルを再使用するビデオ分析タスクからの洞察の正確さに著しく悪影響を及ぼすため、カメラは意図しない逆境として機能する。
本稿では,映像解析タスクにおける学習からの知識の伝達を通じて,映像解析タスクにおける学習を改善するための伝達学習手法について検討する。
特に、新たにトレーニングしたYolov5モデルは、フレーム間のオブジェクト検出のゆらぎを低減し、オブジェクトのトラッキングを改善する(トラッキングのミスが40%少ない)。
また,ビデオ分析アプリケーションに使用されるディープラーニングモデルに対するカメラの逆効果を軽減するための新たな方向と手法も提供する。
関連論文リスト
- Learning Robust Multi-Scale Representation for Neural Radiance Fields
from Unposed Images [65.41966114373373]
コンピュータビジョンにおけるニューラルイメージベースのレンダリング問題に対する改善された解決策を提案する。
提案手法は,テスト時に新たな視点からシーンのリアルなイメージを合成することができる。
論文 参考訳(メタデータ) (2023-11-08T08:18:23Z) - APT: Adaptive Perceptual quality based camera Tuning using reinforcement
learning [2.0741583844039915]
画質の悪いビデオのキャプチャは、分析の精度に悪影響を及ぼす。
本稿では,高品質なビデオキャプチャを実現するために,カメラパラメータを調整した新しい強化学習システムを提案する。
その結果、環境条件やシーン内容が変化したときの洞察の精度を復元する。
論文 参考訳(メタデータ) (2022-11-15T21:02:48Z) - The Right Spin: Learning Object Motion from Rotation-Compensated Flow
Fields [61.664963331203666]
人間がどのように動く物体を知覚するかは、コンピュータービジョンにおける長年の研究課題である。
この問題の1つのアプローチは、これらすべての効果をモデル化するためのディープネットワークを教えることである。
運動場からカメラの回転を推定する新しい確率モデルを提案する。
論文 参考訳(メタデータ) (2022-02-28T22:05:09Z) - Contrastive Learning of Image Representations with Cross-Video
Cycle-Consistency [13.19476138523546]
ビデオ間関係は視覚表現学習ではほとんど研究されていない。
本稿では,一般画像表現学習のサイクル一貫性を利用して,映像間関係を探索する新しいコントラスト学習手法を提案する。
最先端のコントラスト学習方法よりも大幅に改善されています。
論文 参考訳(メタデータ) (2021-05-13T17:59:11Z) - Composable Augmentation Encoding for Video Representation Learning [94.2358972764708]
自己教師型ビデオ表現学習におけるコントラスト手法に着目した。
対照的な学習における一般的なパラダイムは、同じインスタンスで異なるデータビューをサンプリングし、異なるデータインスタンスを負として、ポジティブペアを構築することである。
そこで我々は,拡張パラメータの列を明示的に提供する,拡張対応型コントラスト学習フレームワークを提案する。
提案手法は,特定の空間的あるいは時間的拡張に関する情報をエンコードすると同時に,多数のビデオベンチマークで最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2021-04-01T16:48:53Z) - Few-Shot Learning for Video Object Detection in a Transfer-Learning
Scheme [70.45901040613015]
ビデオ物体検出のための数発学習の新たな課題について検討する。
我々は,多数のベースクラスオブジェクトに対して映像物体検出を効果的に訓練するトランスファー学習フレームワークと,ノベルクラスオブジェクトのいくつかのビデオクリップを用いる。
論文 参考訳(メタデータ) (2021-03-26T20:37:55Z) - Decoupled Appearance and Motion Learning for Efficient Anomaly Detection
in Surveillance Video [9.80717374118619]
我々は、純粋に教師なしの方法で正常な振る舞いを学習する新しいニューラルネットワークアーキテクチャを提案する。
我々のモデルは、関連するアプローチの16倍から45倍のフレームを毎秒処理できる。
論文 参考訳(メタデータ) (2020-11-10T11:40:06Z) - RSPNet: Relative Speed Perception for Unsupervised Video Representation
Learning [100.76672109782815]
本研究では,未ラベル映像のみから動作特徴と外観特徴の両方を学習するための教師なし映像表現学習について検討する。
動作と外観の両方をうまくモデル化するために、適切な自己指導タスクを構築することは困難である。
再生速度を知覚し、2つのビデオクリップ間の相対速度をラベルとして利用するための新しい手法を提案する。
論文 参考訳(メタデータ) (2020-10-27T16:42:50Z) - Performance of object recognition in wearable videos [9.669942356088377]
本研究は、このタイプのカメラで撮影した映像における物体検出と位置決めの問題について研究する。
本稿では、精度と速度の優れたトレードオフを提供する、よく知られたYOLOアーキテクチャについて述べる。
論文 参考訳(メタデータ) (2020-09-10T15:20:17Z) - Watching the World Go By: Representation Learning from Unlabeled Videos [78.22211989028585]
近年の単一画像教師なし表現学習技術は,様々なタスクにおいて顕著な成功を収めている。
本稿では,この自然な拡張を無償で提供することを論じる。
そこで本稿では,ビデオノイズコントラスト推定(Voice Noise Contrastive Estimation)を提案する。
論文 参考訳(メタデータ) (2020-03-18T00:07:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。