論文の概要: Towards Real-time Drowsiness Detection for Elderly Care
- arxiv url: http://arxiv.org/abs/2010.10771v1
- Date: Wed, 21 Oct 2020 05:48:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 22:57:56.037056
- Title: Towards Real-time Drowsiness Detection for Elderly Care
- Title(参考訳): 高齢者のリアルタイム眠気検出に向けて
- Authors: Boris Ba\v{c}i\'c and Jason Zhang
- Abstract要約: 本稿では,高齢者が単独で生活するのを助けるために,ビデオから眠気情報を抽出する概念を実証する。
そこで我々は,OpenCVと統合された深層学習モデルのトレーニングとテストのために,映像から3000枚の画像を抽出した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The primary focus of this paper is to produce a proof of concept for
extracting drowsiness information from videos to help elderly living on their
own. To quantify yawning, eyelid and head movement over time, we extracted 3000
images from captured videos for training and testing of deep learning models
integrated with OpenCV library. The achieved classification accuracy for eyelid
and mouth open/close status were between 94.3%-97.2%. Visual inspection of head
movement from videos with generated 3D coordinate overlays, indicated clear
spatiotemporal patterns in collected data (yaw, roll and pitch). Extraction
methodology of the drowsiness information as timeseries is applicable to other
contexts including support for prior work in privacy-preserving augmented
coaching, sport rehabilitation, and integration with big data platform in
healthcare.
- Abstract(参考訳): 本研究の目的は,高齢者が単独で生活するのを助けるために,ビデオから眠気情報を抽出するための概念実証を行うことである。
時間とともにあくび, まぶた, 頭の動きを定量化するために, OpenCVライブラリと統合したディープラーニングモデルのトレーニングとテストのために, 撮影ビデオから3000の画像を抽出した。
目と口の開閉状態の分類精度は94.3%-97.2%であった。
3次元座標重ね合わせによる映像からの頭部運動の視覚的検査では, 収集データ(ヨー, ロール, ピッチ)の時空間パターンが明らかであった。
時系列としてのdrrowsiness情報の抽出手法は、プライバシ保護強化コーチングにおける事前作業のサポート、スポーツリハビリテーション、医療におけるビッグデータプラットフォームとの統合など、他のコンテキストにも適用できる。
関連論文リスト
- Blind Dates: Examining the Expression of Temporality in Historical
Photographs [57.07335632641355]
マルチモーダル言語とビジョンモデルであるCLIPのオープンソース実装であるOpenCLIPを用いて、画像の日付を調査する。
我々は1950年から1999年までの39,866枚のグレースケールの歴史的プレス写真を含むtextitDe Boer Scene Detectionデータセットを使用している。
解析の結果、バス、車、猫、犬、そして人々が写っている画像はより正確に年代付けされており、時間的マーカーの存在が示唆されている。
論文 参考訳(メタデータ) (2023-10-10T13:51:24Z) - Time Does Tell: Self-Supervised Time-Tuning of Dense Image
Representations [79.87044240860466]
本稿では,高密度自己教師あり学習における時間的一貫性を取り入れた新しい手法を提案する。
タイムチューニング(time-tuning)と呼ぶ我々のアプローチは、画像事前学習モデルから始まり、ラベルなしビデオに新たな自己教師付き時間的アライメントクラスタリングロスを伴って微調整を行う。
タイムチューニングは、教師なしのセマンティックセマンティックセグメンテーションを8~10%改善し、画像にマッチさせる。
論文 参考訳(メタデータ) (2023-08-22T21:28:58Z) - Pose2Gait: Extracting Gait Features from Monocular Video of Individuals
with Dementia [3.2739089842471136]
認知症高齢者の歩行の映像に基づく環境モニタリングは、健康のネガティブな変化を検出する可能性がある。
コンピュータビジョンに基づくポーズトラッキングモデルは、ビデオデータを自動的に処理し、関節位置を抽出することができる。
これらのモデルは、高齢者や臨床集団の歩行分析に最適化されていない。
論文 参考訳(メタデータ) (2023-08-22T14:59:17Z) - Segmentation of kidney stones in endoscopic video feeds [2.572404739180802]
生のビデオからデータセットを構築する方法と、可能な限り多くのプロセスを自動化するパイプラインを開発する方法について説明します。
また, リアルタイム使用の可能性を示すため, 最適なトレーニングモデルにより, 毎秒30フレームの動画を正確にアノテートできることを確認した。
論文 参考訳(メタデータ) (2022-04-29T16:00:52Z) - Using Human Gaze For Surgical Activity Recognition [0.40611352512781856]
手術映像における活動認識のための空間的時間的注意機構を備えた人間の視線の利用を提案する。
我々のモデルは、I3Dベースのアーキテクチャで構成され、3D畳み込みを用いて時間的特徴を学習し、人間の視線を用いて注意マップを学習する。
論文 参考訳(メタデータ) (2022-03-09T14:28:00Z) - Video Salient Object Detection via Contrastive Features and Attention
Modules [106.33219760012048]
本稿では,注目モジュールを持つネットワークを用いて,映像の有意な物体検出のためのコントラスト特徴を学習する。
コアテンションの定式化は、低レベル特徴と高レベル特徴を組み合わせるために用いられる。
提案手法は計算量が少なく,最先端の手法に対して良好に動作することを示す。
論文 参考訳(メタデータ) (2021-11-03T17:40:32Z) - Self-supervised Video Representation Learning by Uncovering
Spatio-temporal Statistics [74.6968179473212]
本稿では,自己指導型学習問題に対処する新しい前提課題を提案する。
最大運動の空間的位置や支配的な方向など,分割的・時間的統計的な要約を連続して計算する。
ビデオフレームを入力として与えられた統計的要約を得るために、ニューラルネットワークを構築して訓練する。
論文 参考訳(メタデータ) (2020-08-31T08:31:56Z) - A Plug-and-play Scheme to Adapt Image Saliency Deep Model for Video Data [54.198279280967185]
本稿では,ビデオデータに対して予め訓練された画像の鮮度深度モデルを弱めに再学習する新しいプラグイン・アンド・プレイ方式を提案する。
本手法は,既訓練画像の深度モデルに適応して高品質な映像の鮮度検出を実現するのに有効である。
論文 参考訳(メタデータ) (2020-08-02T13:23:14Z) - Automatic Operating Room Surgical Activity Recognition for
Robot-Assisted Surgery [1.1033115844630357]
ロボット支援手術における自動手術活動認識について検討した。
400本のフル長マルチパースペクティブビデオを含む,最初の大規模データセットを収集する。
ビデオに最も認識され,臨床的に関係のある10のクラスで注釈を付ける。
論文 参考訳(メタデータ) (2020-06-29T16:30:31Z) - Self-Supervised Human Depth Estimation from Monocular Videos [99.39414134919117]
人間の深度を推定する従来の方法は、しばしば地上の真実の深度データを用いた教師あり訓練を必要とする。
本稿では,YouTubeビデオの奥行きを知ることなく,自己指導型手法を提案する。
実験により,本手法はより一般化され,野生のデータに対してより優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2020-05-07T09:45:11Z) - Deep Reinforcement Learning for Active Human Pose Estimation [35.229529080763925]
完全トレーニング可能な深層強化学習型アクティブポーズ推定アーキテクチャであるPose-DRLを紹介する。
提案モデルでは,強い多視点ベースラインと比較して,より正確なポーズ推定を行う視点を選択することを学習している。
論文 参考訳(メタデータ) (2020-01-07T13:35:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。