論文の概要: Multi Visual Modality Fall Detection Dataset
- arxiv url: http://arxiv.org/abs/2206.12740v1
- Date: Sat, 25 Jun 2022 21:54:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-29 12:06:16.971936
- Title: Multi Visual Modality Fall Detection Dataset
- Title(参考訳): マルチビジュアルモードフォール検出データセット
- Authors: Stefan Denkovski, Shehroz S. Khan, Brandon Malamis, Sae Young Moon,
Bing Ye, Alex Mihailidis
- Abstract要約: 転倒は、世界中の高齢者の怪我による死亡の主な原因の1つだ。
効果的なフォールの検出は、合併症や怪我のリスクを減らすことができる。
しかし、通常のRGBカメラは照明条件やプライバシーの懸念によって影響を受ける。
- 参考スコア(独自算出の注目度): 4.00152916049695
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Falls are one of the leading cause of injury-related deaths among the elderly
worldwide. Effective detection of falls can reduce the risk of complications
and injuries. Fall detection can be performed using wearable devices or ambient
sensors; these methods may struggle with user compliance issues or false
alarms. Video cameras provide a passive alternative; however, regular RGB
cameras are impacted by changing lighting conditions and privacy concerns. From
a machine learning perspective, developing an effective fall detection system
is challenging because of the rarity and variability of falls. Many existing
fall detection datasets lack important real-world considerations, such as
varied lighting, continuous activities of daily living (ADLs), and camera
placement. The lack of these considerations makes it difficult to develop
predictive models that can operate effectively in the real world. To address
these limitations, we introduce a novel multi-modality dataset (MUVIM) that
contains four visual modalities: infra-red, depth, RGB and thermal cameras.
These modalities offer benefits such as obfuscated facial features and improved
performance in low-light conditions. We formulated fall detection as an anomaly
detection problem, in which a customized spatio-temporal convolutional
autoencoder was trained only on ADLs so that a fall would increase the
reconstruction error. Our results showed that infra-red cameras provided the
highest level of performance (AUC ROC=0.94), followed by thermal (AUC
ROC=0.87), depth (AUC ROC=0.86) and RGB (AUC ROC=0.83). This research provides
a unique opportunity to analyze the utility of camera modalities in detecting
falls in a home setting while balancing performance, passiveness, and privacy.
- Abstract(参考訳): 滝は、世界中の高齢者の傷害死の原因の1つである。
転倒の効果的な検出は、合併症や怪我のリスクを軽減できる。
転倒検出はウェアラブルデバイスや環境センサーを使って行うことができる。
ビデオカメラはパッシブな代替手段を提供するが、通常のrgbカメラは照明条件の変更とプライバシーの懸念によって影響を受ける。
機械学習の観点からは,転倒の希少性と変動性から,効果的な転倒検出システムの開発が困難である。
多くの既存の転倒検出データセットは、様々な照明、日常生活(ADL)の継続的な活動、カメラ配置など、重要な現実世界の考慮を欠いている。
これらの考慮が欠如しているため、実世界で効果的に動作可能な予測モデルの開発は困難である。
これらの制約に対処するために、赤外線、深度、RGB、サーマルカメラの4つの視覚的モダリティを含む新しい多モードデータセット(MUVIM)を導入する。
これらのモダリティは、難読な顔の特徴や低照度環境での性能向上などの利点を提供する。
転倒検出を,時空間畳み込み型オートエンコーダをadlでのみ訓練し,転倒が復元誤差を増大させるような異常検出問題として定式化した。
その結果,赤外線カメラが最も高い性能(AUC ROC=0.94),熱(AUC ROC=0.87),深度(AUC ROC=0.86),RGB(AUC ROC=0.83)が得られた。
この研究は、パフォーマンス、受動的性、プライバシのバランスを保ちながら、家庭における転倒検出におけるカメラモードの有用性を分析するユニークな機会を提供する。
関連論文リスト
- QueensCAMP: an RGB-D dataset for robust Visual SLAM [0.0]
本稿では,VSLAMシステムのロバスト性を評価するために設計された新しいRGB-Dデータセットを提案する。
データセットは、動的オブジェクト、動きのぼかし、様々な照明を備えた現実世界の屋内シーンで構成されている。
我々は、任意の画像にカメラ障害を注入するためのオープンソースのスクリプトを提供し、さらなるカスタマイズを可能にします。
論文 参考訳(メタデータ) (2024-10-16T12:58:08Z) - Implicit Event-RGBD Neural SLAM [54.74363487009845]
神経性SLAMは近年顕著な進歩を遂げている。
既存の手法は、非理想的なシナリオにおいて重大な課題に直面します。
本稿では,最初のイベントRGBD暗黙的ニューラルSLAMフレームワークであるEN-SLAMを提案する。
論文 参考訳(メタデータ) (2023-11-18T08:48:58Z) - Temporal Shift -- Multi-Objective Loss Function for Improved Anomaly
Fall Detection [3.813649699234981]
逐次フレームのウィンドウ内における将来のフレームと再構成フレームの両方を予測することを目的とした,Temporal Shiftと呼ばれる多目的損失関数を提案する。
異なるモデル間での大幅な改善により、このアプローチは広く採用され、フォール検出以外の他の設定での異常検出機能を改善する可能性がある。
論文 参考訳(メタデータ) (2023-11-06T04:29:12Z) - Imagery Dataset for Condition Monitoring of Synthetic Fibre Ropes [0.0]
このデータセットは、正常なSFRと欠陥のあるSFRの両方を表す合計6,942の生画像からなる。
データセットは、オブジェクトの検出、分類、セグメンテーションを含むコンピュータビジョンアプリケーションをサポートするリソースとして機能する。
このデータセットを生成する目的は、自動欠陥検出システムの開発を支援することである。
論文 参考訳(メタデータ) (2023-09-29T08:42:44Z) - MonoTDP: Twin Depth Perception for Monocular 3D Object Detection in
Adverse Scenes [49.21187418886508]
本論文は,モノTDP(MonoTDP)と呼ばれる悪シーンにおける2つの深度を知覚するモノクル3次元検出モデルを提案する。
まず、制御不能な気象条件を扱うモデルを支援するための適応学習戦略を導入し、様々な劣化要因による劣化を著しく抑制する。
そこで本研究では, シーン深度と物体深度を同時に推定する新たな2つの深度認識モジュールを提案する。
論文 参考訳(メタデータ) (2023-05-18T13:42:02Z) - An Outlier Exposure Approach to Improve Visual Anomaly Detection
Performance for Mobile Robots [76.36017224414523]
移動ロボットの視覚異常検出システム構築の問題点を考察する。
標準異常検出モデルは、非異常データのみからなる大規模なデータセットを用いて訓練される。
本研究では,これらのデータを利用してリアルNVP異常検出モデルの性能向上を図る。
論文 参考訳(メタデータ) (2022-09-20T15:18:13Z) - Does Thermal data make the detection systems more reliable? [1.2891210250935146]
マルチモーダル協調フレームワークに基づく包括的検知システムを提案する。
このフレームワークは、RGB(ビジュアルカメラから)と熱(赤外線カメラから)の両方のデータから学習する。
実験の結果,精度の向上は名目上はいるものの,難易度と難易度は高いことがわかった。
論文 参考訳(メタデータ) (2021-11-09T15:04:34Z) - Robust Unsupervised Video Anomaly Detection by Multi-Path Frame
Prediction [61.17654438176999]
本稿では,フレーム予測と適切な設計による新規で頑健な非教師付きビデオ異常検出手法を提案する。
提案手法は,CUHK Avenueデータセット上で88.3%のフレームレベルAUROCスコアを得る。
論文 参考訳(メタデータ) (2020-11-05T11:34:12Z) - Learning Camera Miscalibration Detection [83.38916296044394]
本稿では,視覚センサ,特にRGBカメラの誤校正検出を学習するためのデータ駆動型アプローチに焦点を当てた。
コントリビューションには、RGBカメラの誤校正基準と、この基準に基づく新しい半合成データセット生成パイプラインが含まれる。
深層畳み込みニューラルネットワークをトレーニングすることにより、カメラ固有のパラメータの再校正が必要か否かを判断するパイプラインの有効性を実証する。
論文 参考訳(メタデータ) (2020-05-24T10:32:49Z) - Motion and Region Aware Adversarial Learning for Fall Detection with
Thermal Imaging [8.110295985047278]
転倒検知のためのホームベースのカメラシステムは、しばしば人々のプライバシーを危険にさらす。
転倒はめったに起こらないため、クラス不均衡によるアルゴリズムの学習は簡単ではない。
熱画像を用いた対向フレームワーク内での転倒検出を異常検出として定式化する。
論文 参考訳(メタデータ) (2020-04-17T17:17:29Z) - Drone-based RGB-Infrared Cross-Modality Vehicle Detection via
Uncertainty-Aware Learning [59.19469551774703]
ドローンによる車両検出は、空中画像中の車両の位置とカテゴリーを見つけることを目的としている。
我々はDroneVehicleと呼ばれる大規模ドローンベースのRGB赤外線車両検出データセットを構築した。
私たちのDroneVehicleは28,439RGBの赤外線画像を収集し、都市道路、住宅地、駐車場、その他のシナリオを昼から夜までカバーしています。
論文 参考訳(メタデータ) (2020-03-05T05:29:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。