論文の概要: A Bottom-up method Towards the Automatic and Objective Monitoring of
Smoking Behavior In-the-wild using Wrist-mounted Inertial Sensors
- arxiv url: http://arxiv.org/abs/2109.03475v1
- Date: Wed, 8 Sep 2021 07:50:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-09 13:33:40.596803
- Title: A Bottom-up method Towards the Automatic and Objective Monitoring of
Smoking Behavior In-the-wild using Wrist-mounted Inertial Sensors
- Title(参考訳): Wrist搭載慣性センサを用いた喫煙行動自動・客観的モニタリングに向けたボトムアップ手法
- Authors: Athanasios Kirmizis, Konstantinos Kyritsis and Anastasios Delopoulos
- Abstract要約: タバコの消費量は世界的な流行率に達しており、死因や病気の主な原因となっている。
本稿では,喫煙行動の自動的・客観的モニタリングに向けた2段階のボトムアップアルゴリズムを提案する。
最初のステップでは、畳み込み層と反復層の両方を持つ人工ニューラルネットワークを用いて、個々の喫煙動作(即ちパフ)を検出する。
第2のステップでは,検出されたパフ密度を利用して,日中発生する喫煙セッションの時間的局所化を実現している。
- 参考スコア(独自算出の注目度): 6.955421797534318
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The consumption of tobacco has reached global epidemic proportions and is
characterized as the leading cause of death and illness. Among the different
ways of consuming tobacco (e.g., smokeless, cigars), smoking cigarettes is the
most widespread. In this paper, we present a two-step, bottom-up algorithm
towards the automatic and objective monitoring of cigarette-based, smoking
behavior during the day, using the 3D acceleration and orientation velocity
measurements from a commercial smartwatch. In the first step, our algorithm
performs the detection of individual smoking gestures (i.e., puffs) using an
artificial neural network with both convolutional and recurrent layers. In the
second step, we make use of the detected puff density to achieve the temporal
localization of smoking sessions that occur throughout the day. In the
experimental section we provide extended evaluation regarding each step of the
proposed algorithm, using our publicly available, realistic Smoking Event
Detection (SED) and Free-living Smoking Event Detection (SED-FL) datasets
recorded under semi-controlled and free-living conditions, respectively. In
particular, leave-one-subject-out (LOSO) experiments reveal an F1-score of
0.863 for the detection of puffs and an F1-score/Jaccard index equal to
0.878/0.604 towards the temporal localization of smoking sessions during the
day. Finally, to gain further insight, we also compare the puff detection part
of our algorithm with a similar approach found in the recent literature.
- Abstract(参考訳): タバコの消費は世界的な流行率に達しており、死因や病気の主な原因となっている。
タバコを消費する様々な方法(煙草、葉巻など)の中で、タバコは最も広く使われている。
本稿では,2段階のボトムアップアルゴリズムを用いて,市販スマートウォッチの3次元加速度および方向速度測定を用いて,喫煙行動の自動的および客観的モニタリングを行う。
最初のステップでは、畳み込み層と繰り返し層の両方を持つ人工ニューラルネットワークを用いて、個々の喫煙ジェスチャー(すなわちパフ)を検出する。
第2段階では,検出されたパフ密度を利用して,日中発生する喫煙セッションの時間的局所化を実現する。
実験では, 提案アルゴリズムの各ステップについて, 半制御条件と自由生活条件でそれぞれ記録した実効性喫煙事象検出(SED)と自由生活喫煙事象検出(SED-FL)を用いて, 拡張評価を行った。
特に、LOSO(Leave-one-subject-out)実験では、パフの検出のためのF1スコアが0.863であり、日中の喫煙セッションの時間的局所化に向けてF1スコア/ジャカード指数が0.878/0.604に等しいことが示されている。
最後に、さらに洞察を得るために、我々のアルゴリズムのパフ検出部分と最近の文献で見られる同様のアプローチを比較する。
関連論文リスト
- Domain Adaptive Synapse Detection with Weak Point Annotations [63.97144211520869]
弱点アノテーションを用いたドメイン適応型シナプス検出のためのフレームワークであるAdaSynを提案する。
I SBI 2023のWASPSYNチャレンジでは、我々の手法が第1位にランクインした。
論文 参考訳(メタデータ) (2023-08-31T05:05:53Z) - On the Universal Adversarial Perturbations for Efficient Data-free
Adversarial Detection [55.73320979733527]
本稿では,UAPに対して正常サンプルと逆サンプルの異なる応答を誘導する,データに依存しない逆検出フレームワークを提案する。
実験結果から,本手法は様々なテキスト分類タスクにおいて,競合検出性能を実現することが示された。
論文 参考訳(メタデータ) (2023-06-27T02:54:07Z) - Application-Driven AI Paradigm for Hand-Held Action Detection [1.8531114735719274]
階層的物体検出に基づく手持ち動作検出のためのアプリケーション駆動型AIパラダイムを提案する。
提案手法は, 複雑な環境下での適応性やロバスト性を向上し, 高い検出率を実現する。
論文 参考訳(メタデータ) (2022-10-13T02:30:23Z) - Fake It Till You Make It: Near-Distribution Novelty Detection by
Score-Based Generative Models [54.182955830194445]
既存のモデルは、いわゆる"近く分布"設定で失敗するか、劇的な低下に直面します。
本稿では, スコアに基づく生成モデルを用いて, 合成近分布異常データを生成することを提案する。
本手法は,9つのノベルティ検出ベンチマークにおいて,近分布ノベルティ検出を6%改善し,最先端のノベルティ検出を1%から5%パスする。
論文 参考訳(メタデータ) (2022-05-28T02:02:53Z) - Interpretable Feature Learning Framework for Smoking Behavior Detection [0.0]
深層学習VGG-16事前学習ネットワークを用いた喫煙行動検出のための解釈可能な特徴学習フレームワーク
また、雑草、シシャ、マリファナなど、他の喫煙可能な薬物も検出できる。
論文 参考訳(メタデータ) (2021-12-12T11:05:35Z) - Project Achoo: A Practical Model and Application for COVID-19 Detection
from Recordings of Breath, Voice, and Cough [55.45063681652457]
コンシューマー端末で録音した音声を用いて、新型コロナウイルスを迅速にトリアージする機械学習手法を提案する。
この手法は,信号処理手法と微調整深層学習ネットワークを組み合わせることで,信号の識別,コークス検出,分類を行う手法を提供する。
我々はまた、症状チェッカーと音声、息、うず信号を使って新型コロナウイルスの感染を検知するモバイルアプリケーションを開発し、展開した。
論文 参考訳(メタデータ) (2021-07-12T08:07:56Z) - STCNet: Spatio-Temporal Cross Network for Industrial Smoke Detection [52.648906951532155]
本稿では,産業用煙排出ガスを識別する新しい時空間クロスネットワーク(STCNet)を提案する。
提案するSTCNetは, テクスチャの特徴を抽出する空間的特徴と, 煙の動き情報を捕捉する時間的経路を含む。
STCNetは、RISE産業煙検知データセットにおいて、最も優れた競合相手に対して6.2%の精度で明確な改善を実現していることを示す。
論文 参考訳(メタデータ) (2020-11-10T02:28:47Z) - A Data Driven End-to-end Approach for In-the-wild Monitoring of Eating
Behavior Using Smartwatches [8.257740966456172]
本稿では, 食事中の食行動の自動化と, 食事の時間的局在のモデル化に向けて, 完全な枠組みを提案する。
食物摂取事象(すなわち噛み跡)を検出するエンドツーエンドニューラルネットワークを提案する。
食事の開始点と終了点を信号処理アルゴリズムを用いて推定するために,検出した噛み跡の1日を通して分布を推定する方法を示す。
論文 参考訳(メタデータ) (2020-10-12T12:35:56Z) - Recognition of Smoking Gesture Using Smart Watch Technology [0.18472148461613155]
喫煙ジェスチャーの早期同定は、適切な介入方法を開始し、喫煙の再発を防ぐのに役立つ。
喫煙行動の識別における85%-95%の成功率を示す実験を行った。
我々は,スマートウォッチを用いて日常活動の継続的なモニタリングを行う可能性を実証した。
論文 参考訳(メタデータ) (2020-03-05T16:05:49Z) - A Robust Functional EM Algorithm for Incomplete Panel Count Data [66.07942227228014]
完全無作為な仮定(MCAR)の下での数え上げ過程の平均関数を推定する機能的EMアルゴリズムを提案する。
提案アルゴリズムは、いくつかの一般的なパネル数推定手法をラップし、不完全数にシームレスに対処し、ポアソン過程の仮定の誤特定に頑健である。
本稿では, 数値実験による提案アルゴリズムの有用性と喫煙停止データの解析について述べる。
論文 参考訳(メタデータ) (2020-03-02T20:04:38Z) - State Transition Modeling of the Smoking Behavior using LSTM Recurrent
Neural Networks [0.2294014185517203]
本研究では,喫煙活動を認識するためのスマートウォッチセンサの利用に焦点を当てた。
状態遷移モデルとして, 喫煙行動の再構成を行ったところ, 100%に近い検出率の改善がみられた。
さらに,97%近い精度でジェスチャーのコンテキスト内検出を可能にするために,Long-Short-Term Memory (LSTM) ニューラルネットワークの利用を開始した。
論文 参考訳(メタデータ) (2020-01-07T15:06:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。