論文の概要: TIMo -- A Dataset for Indoor Building Monitoring with a Time-of-Flight
Camera
- arxiv url: http://arxiv.org/abs/2108.12196v1
- Date: Fri, 27 Aug 2021 09:33:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-30 14:12:56.417425
- Title: TIMo -- A Dataset for Indoor Building Monitoring with a Time-of-Flight
Camera
- Title(参考訳): TIMo - 飛行時間カメラを用いた屋内ビル監視用データセット
- Authors: Pascal Schneider, Yuriy Anisimov, Raisul Islam, Bruno Mirbach, Jason
Rambach, Fr\'ed\'eric Grandidier, Didier Stricker
- Abstract要約: タイム・オブ・フライ(ToF)カメラを用いた室内空間の映像監視用データセットTIMoについて述べる。
その結果生まれたディープビデオは、さまざまな事前定義されたアクションを実行する人々を特徴付けている。
対象とする2つのアプリケーションには、計数と異常検出を行う人物検出がある。
- 参考スコア(独自算出の注目度): 9.746370805708095
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We present TIMo (Time-of-flight Indoor Monitoring), a dataset for video-based
monitoring of indoor spaces captured using a time-of-flight (ToF) camera. The
resulting depth videos feature people performing a set of different predefined
actions, for which we provide detailed annotations. Person detection for people
counting and anomaly detection are the two targeted applications. Most existing
surveillance video datasets provide either grayscale or RGB videos. Depth
information, on the other hand, is still a rarity in this class of datasets in
spite of being popular and much more common in other research fields within
computer vision. Our dataset addresses this gap in the landscape of
surveillance video datasets. The recordings took place at two different
locations with the ToF camera set up either in a top-down or a tilted
perspective on the scene. The dataset is publicly available at
https://vizta-tof.kl.dfki.de/timo-dataset-overview/.
- Abstract(参考訳): ToF(Time-of-flight Indoor Monitoring)カメラを用いて室内空間をビデオで監視するTIMo(Time-of-flight Indoor Monitoring)を提案する。
その結果得られた深度ビデオは、さまざまな事前定義されたアクションを実行する人々を特徴付けます。
人のカウントと異常検出のための人物検出は2つのターゲットアプリケーションである。
既存の監視ビデオデータセットのほとんどは、グレースケールまたはRGBビデオを提供する。
一方、深度情報は、コンピュータビジョンの他の研究分野で人気があり、より一般的であるにもかかわらず、このクラスのデータセットでは依然として希少である。
私たちのデータセットは、監視ビデオデータセットのランドスケープにおけるこのギャップに対処します。
録音は2つの異なる場所で行われ、ToFカメラはトップダウンか傾斜した視点で設定された。
データセットはhttps://vizta-tof.kl.dfki.de/timo-dataset-overview/で公開されている。
関連論文リスト
- PIV3CAMS: a multi-camera dataset for multiple computer vision problems and its application to novel view-point synthesis [120.4361056355332]
この論文では、3つのCAMeraS、すなわちPIV3CAMSからPaired Image and Videoのデータを紹介している。
PIV3CAMSデータセットは8385対の画像と82対のビデオで構成されている。
本稿では,現在最先端のアルゴリズムの再構築に加えて,深度情報を幾何的に統合する代替モデルについても検討する。
論文 参考訳(メタデータ) (2024-07-26T12:18:29Z) - MTMMC: A Large-Scale Real-World Multi-Modal Camera Tracking Benchmark [63.878793340338035]
マルチターゲットマルチカメラトラッキングは、複数のカメラからのビデオストリームを使用して個人を特定し、追跡する重要なタスクである。
このタスクの既存のデータセットは、制御されたカメラネットワーク設定内で合成または人工的に構築される。
我々は16台のマルチモーダルカメラで2つの異なる環境でキャプチャされた長いビデオシーケンスを含む実世界の大規模データセットであるMTMMCを紹介する。
論文 参考訳(メタデータ) (2024-03-29T15:08:37Z) - Multiview Aerial Visual Recognition (MAVREC): Can Multi-view Improve
Aerial Visual Perception? [57.77643186237265]
我々は、異なる視点から同期シーンを記録するビデオデータセットであるMultiview Aerial Visual RECgnition(MAVREC)を提示する。
MAVRECは約2.5時間、業界標準の2.7K解像度ビデオシーケンス、0.5万フレーム以上のフレーム、11万の注釈付きバウンディングボックスで構成されている。
これにより、MAVRECは地上および空中ビューのデータセットとして最大であり、ドローンベースのデータセットの中では4番目に大きい。
論文 参考訳(メタデータ) (2023-12-07T18:59:14Z) - Ground-to-Aerial Person Search: Benchmark Dataset and Approach [42.54151390290665]
我々はG2APSという,地上から航空への人物探索のための大規模データセットを構築した。
G2APSには、UAVと地上監視カメラの両方に2,644個のアイデンティティを持つ260,559個の注釈付きバウンディングボックスの31,770枚の画像が含まれている。
論文 参考訳(メタデータ) (2023-08-24T11:11:26Z) - Argoverse 2: Next Generation Datasets for Self-Driving Perception and
Forecasting [64.7364925689825]
Argoverse 2(AV2)は、自動運転分野の研究の知覚と予測のための3つのデータセットの集合である。
Lidarデータセットには、ラベルなしのLidar点雲とマップ整列ポーズの2万のシーケンスが含まれている。
Motion Forecastingデータセットには、各ローカルシーンにおける自動運転車と他のアクター間の興味深い、挑戦的なインタラクションのために採掘された25万のシナリオが含まれている。
論文 参考訳(メタデータ) (2023-01-02T00:36:22Z) - Synthehicle: Multi-Vehicle Multi-Camera Tracking in Virtual Cities [4.4855664250147465]
複数の車両の追跡とセグメンテーションのための大規模な合成データセットを複数重なり合うカメラビューと非重なり合うカメラビューで提示する。
データセットは17時間のラベル付きビデオ素材で構成され、64の異なる日、雨、夜のシーンで340台のカメラから記録されている。
論文 参考訳(メタデータ) (2022-08-30T11:36:07Z) - Spatial-Temporal Frequency Forgery Clue for Video Forgery Detection in
VIS and NIR Scenario [87.72258480670627]
既存の周波数領域に基づく顔偽造検出手法では、GAN鍛造画像は、実際の画像と比較して、周波数スペクトルに明らかな格子状の視覚的アーチファクトを持つ。
本稿では,コサイン変換に基づくフォージェリークリュー拡張ネットワーク(FCAN-DCT)を提案し,より包括的な時空間特徴表現を実現する。
論文 参考訳(メタデータ) (2022-07-05T09:27:53Z) - Unsupervised Anomaly Detection from Time-of-Flight Depth Images [11.485364355489462]
ビデオ異常検出(VAD)は、ビデオデータ中の異常事象を自動的に検出する問題に対処する。
本研究では,フォアグラウンドマスクの形でシーン解析のための補助情報を容易に抽出できることを示す。
論文 参考訳(メタデータ) (2022-03-02T11:59:03Z) - Moving Object Detection for Event-based vision using Graph Spectral
Clustering [6.354824287948164]
移動物体検出は、幅広い応用のためのコンピュータビジョンにおける中心的な話題となっている。
イベントベースデータにおける移動物体検出のための教師なしグラフスペクトルクラスタリング手法を提案する。
さらに,移動物体の最適個数を自動決定する方法について述べる。
論文 参考訳(メタデータ) (2021-09-30T10:19:22Z) - 4D Visualization of Dynamic Events from Unconstrained Multi-View Videos [77.48430951972928]
ハンドヘルド複数カメラで撮影したビデオから4次元の時空間で動的事象を可視化するためのデータ駆動型アプローチを提案する。
このアプローチの鍵となるのは、イベントの静的および動的側面を構成するために、シーン固有の自己教師型ニューラルネットワークを使用することです。
このモデルでは,(1)時刻の凍結と視界探索,(2)視点の凍結と時間移動,(3)時間と視界の同時変更を行う仮想カメラを作成することができる。
論文 参考訳(メタデータ) (2020-05-27T17:57:19Z) - AU-AIR: A Multi-modal Unmanned Aerial Vehicle Dataset for Low Altitude
Traffic Surveillance [20.318367304051176]
カメラを搭載した無人航空機(UAV)は、空中(バードビュー)画像を撮影する利点がある。
オブジェクトアノテーションによる視覚データを含む、いくつかの空中データセットが導入されている。
本研究では,実環境下で収集されたマルチモーダルセンサデータを有する多目的航空データセット(AU-AIR)を提案する。
論文 参考訳(メタデータ) (2020-01-31T09:45:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。