論文の概要: Unsupervised Anomaly Detection from Time-of-Flight Depth Images
- arxiv url: http://arxiv.org/abs/2203.01052v1
- Date: Wed, 2 Mar 2022 11:59:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-03 15:41:57.581608
- Title: Unsupervised Anomaly Detection from Time-of-Flight Depth Images
- Title(参考訳): 飛行時間深度画像からの教師なし異常検出
- Authors: Pascal Schneider, Jason Rambach, Bruno Mirbach, Didier Stricker
- Abstract要約: ビデオ異常検出(VAD)は、ビデオデータ中の異常事象を自動的に検出する問題に対処する。
本研究では,フォアグラウンドマスクの形でシーン解析のための補助情報を容易に抽出できることを示す。
- 参考スコア(独自算出の注目度): 11.485364355489462
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Video anomaly detection (VAD) addresses the problem of automatically finding
anomalous events in video data. The primary data modalities on which current
VAD systems work on are monochrome or RGB images. Using depth data in this
context instead is still hardly explored in spite of depth images being a
popular choice in many other computer vision research areas and the increasing
availability of inexpensive depth camera hardware. We evaluate the application
of existing autoencoder-based methods on depth video and propose how the
advantages of using depth data can be leveraged by integration into the loss
function. Training is done unsupervised using normal sequences without need for
any additional annotations. We show that depth allows easy extraction of
auxiliary information for scene analysis in the form of a foreground mask and
demonstrate its beneficial effect on the anomaly detection performance through
evaluation on a large public dataset, for which we are also the first ones to
present results on.
- Abstract(参考訳): video anomaly detection (vad)は、ビデオデータに異常なイベントを自動的に発見する問題に対処する。
現在のVADシステムが動作する主なデータモダリティは、モノクロまたはRGB画像である。
この文脈での深度データの利用は、他の多くのコンピュータビジョン研究領域において、深度画像が一般的な選択肢であり、安価な深度カメラハードウェアが利用可能になるにもかかわらず、まだほとんど調査されていない。
我々は,既存のオートエンコーダ方式の深度ビデオへの適用を評価し,損失関数への統合により,深度データの利用の利点をどのように活用できるかを提案する。
トレーニングは、追加のアノテーションを必要とせずに、通常のシーケンスを使用して教師なしで行われる。
本研究では,フォアグラウンドマスクを用いてシーン解析のための補助情報を簡易に抽出し,大規模な公開データセットの評価による異常検出性能に有効であることを示す。
関連論文リスト
- Weakly Supervised Video Anomaly Detection and Localization with Spatio-Temporal Prompts [57.01985221057047]
本稿では、事前学習された視覚言語モデル(VLM)に基づく、弱教師付きビデオ異常検出および局所化のための時間的プロンプト埋め込み(WSVADL)を学習する新しい手法を提案する。
提案手法は,WSVADLタスクの3つの公開ベンチマークにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2024-08-12T03:31:29Z) - SelfReDepth: Self-Supervised Real-Time Depth Restoration for Consumer-Grade Sensors [42.48726526726542]
SelfReDepthは、深度復元のための自己教師型ディープラーニング技術である。
複数のシーケンシャルな深度フレームとカラーデータを使用して、時間的コヒーレンスで高品質な深度ビデオを実現する。
我々の結果は、実世界のデータセット上での我々のアプローチのリアルタイムパフォーマンスを実証する。
論文 参考訳(メタデータ) (2024-06-05T15:38:02Z) - Point Cloud Video Anomaly Detection Based on Point Spatio-Temporal
Auto-Encoder [1.4340883856076097]
我々は、ポイントクラウドビデオの異常を検出するためにポイントクラウドビデオを入力として使用する自動エンコーダフレームワークであるポイント時自動エンコーダ(PSTAE)を提案する。
本手法はTIMoデータセット上に新しい最先端(SOTA)を設定する。
論文 参考訳(メタデータ) (2023-06-04T10:30:28Z) - Gated2Gated: Self-Supervised Depth Estimation from Gated Images [22.415893281441928]
ゲーテッドカメラは、高解像度の3D深度でLiDARセンサーをスキャンする代替品として有望だ。
そこで本研究では,ゲート強度プロファイルと時間的一貫性をトレーニング信号として用いた完全自己教師型深度推定手法を提案する。
論文 参考訳(メタデータ) (2021-12-04T19:47:38Z) - Video Salient Object Detection via Contrastive Features and Attention
Modules [106.33219760012048]
本稿では,注目モジュールを持つネットワークを用いて,映像の有意な物体検出のためのコントラスト特徴を学習する。
コアテンションの定式化は、低レベル特徴と高レベル特徴を組み合わせるために用いられる。
提案手法は計算量が少なく,最先端の手法に対して良好に動作することを示す。
論文 参考訳(メタデータ) (2021-11-03T17:40:32Z) - Learning to Recover 3D Scene Shape from a Single Image [98.20106822614392]
まず,未知のスケールまで深さを予測し,単一の単眼画像からシフトする2段階フレームワークを提案する。
そして、3dポイントクラウドエンコーダを使って深度シフトと焦点距離を予測し、リアルな3dシーンの形状を復元します。
論文 参考訳(メタデータ) (2020-12-17T02:35:13Z) - Robust Unsupervised Video Anomaly Detection by Multi-Path Frame
Prediction [61.17654438176999]
本稿では,フレーム予測と適切な設計による新規で頑健な非教師付きビデオ異常検出手法を提案する。
提案手法は,CUHK Avenueデータセット上で88.3%のフレームレベルAUROCスコアを得る。
論文 参考訳(メタデータ) (2020-11-05T11:34:12Z) - Learning Monocular Dense Depth from Events [53.078665310545745]
イベントカメラは、強度フレームではなく、非同期イベントのストリームの形式で輝度を変化させる。
最近の学習に基づくアプローチは、単眼深度予測のようなイベントベースのデータに適用されている。
本稿では,この課題を解決するための繰り返しアーキテクチャを提案し,標準フィードフォワード法よりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-10-16T12:36:23Z) - Deep Learning-based Single Image Face Depth Data Enhancement [15.41435352543715]
本研究は,この文脈における深層学習顔深度向上手法を提案する。
ディープラーニングエンハンサーは、テスト済みの既存のエンハンサーよりも顕著に優れた結果が得られる。
論文 参考訳(メタデータ) (2020-06-19T11:52:38Z) - Self-Supervised Representation Learning for Visual Anomaly Detection [9.642625267699488]
本稿では,画像映像における異常検出の問題点を考察し,新しい視覚的異常検出手法を提案する。
光フロー情報を用いることなくビデオフレーム間の時間的コヒーレンスを学習するための,簡単なセルフスーパービジョンアプローチを提案する。
この直感的なアプローチは、UCF101およびILSVRC2015ビデオデータセット上の画像やビデオの多くの方法と比較して、視覚異常検出の優れた性能を示している。
論文 参考訳(メタデータ) (2020-06-17T04:37:29Z) - Single Image Depth Estimation Trained via Depth from Defocus Cues [105.67073923825842]
単一のRGB画像から深度を推定することはコンピュータビジョンの基本的な課題である。
この作業では、異なる視点ではなく、フォーカスキューからの奥行きに依存しています。
我々は,KITTIとMake3Dデータセットの教師あり手法と同等な結果を提示し,教師なし学習手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-01-14T20:22:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。