論文の概要: Mindfulness Meditation and Respiration: Accelerometer-Based Respiration Rate and Mindfulness Progress Estimation to Enhance App Engagement and Mindfulness Skills
- arxiv url: http://arxiv.org/abs/2507.17688v1
- Date: Wed, 23 Jul 2025 16:52:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-24 22:33:15.095365
- Title: Mindfulness Meditation and Respiration: Accelerometer-Based Respiration Rate and Mindfulness Progress Estimation to Enhance App Engagement and Mindfulness Skills
- Title(参考訳): 覚醒と呼吸: 加速度計による呼吸速度とマインドフルネス進行推定によるアプリエンゲージメントとマインドフルネススキルの向上
- Authors: Mohammad Nur Hossain Khan, David creswell, Jordan Albert, Patrick O'Connell, Shawn Fallon, Mathew Polowitz, Xuhai "orson" Xu, Bashima islam,
- Abstract要約: スマートフォンの加速度計による呼吸追跡アルゴリズムを開発した。
従来の方法と異なり,本手法では,マインドフルネスに典型的な呼吸パターンを正確に捉えている。
本稿では,加速度計による呼吸データに基づいて,マインドフルネススキルの集中度,感覚的明瞭度,およびエクアニミティを推定する最初の定量的枠組みを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Mindfulness training is widely recognized for its benefits in reducing depression, anxiety, and loneliness. With the rise of smartphone-based mindfulness apps, digital meditation has become more accessible, but sustaining long-term user engagement remains a challenge. This paper explores whether respiration biosignal feedback and mindfulness skill estimation enhance system usability and skill development. We develop a smartphone's accelerometer-based respiration tracking algorithm, eliminating the need for additional wearables. Unlike existing methods, our approach accurately captures slow breathing patterns typical of mindfulness meditation. Additionally, we introduce the first quantitative framework to estimate mindfulness skills-concentration, sensory clarity, and equanimity-based on accelerometer-derived respiration data. We develop and test our algorithms on 261 mindfulness sessions in both controlled and real-world settings. A user study comparing an experimental group receiving biosignal feedback with a control group using a standard app shows that respiration feedback enhances system usability. Our respiration tracking model achieves a mean absolute error (MAE) of 1.6 breaths per minute, closely aligning with ground truth data, while our mindfulness skill estimation attains F1 scores of 80-84% in tracking skill progression. By integrating respiration tracking and mindfulness estimation into a commercial app, we demonstrate the potential of smartphone sensors to enhance digital mindfulness training.
- Abstract(参考訳): マインドフルネストレーニングは、うつ病、不安、孤独を減らすことの利点として広く認識されている。
スマートフォンベースのマインドフルネスアプリ(マインドフルネスアプリ、マインドフルネスアプリ、マインドフルネスアプリ、マインドフルネスアプリ)の登場により、デジタル想いはよりアクセスしやすくなっているが、長期的なユーザーエンゲージメントを維持することは依然として課題だ。
本稿では,呼吸生体信号フィードバックとマインドフルネススキル推定がシステムのユーザビリティとスキル開発を促進するかどうかを考察する。
我々は,スマートフォンの加速度計による呼吸トラッキングアルゴリズムを開発し,ウェアラブルの追加の必要性を排除した。
従来の方法と異なり,本手法では,マインドフルネスに典型的な呼吸パターンを正確に捉えている。
さらに,加速度計による呼吸データに基づいて,マインドフルネススキルの集中度,感覚的明瞭度,およびエクアニミティを推定する最初の定量的枠組みを導入する。
制御と実世界の両方の設定において,261のマインドフルネスセッションでアルゴリズムを開発し,テストする。
生体信号フィードバックを受ける実験群と標準アプリを用いた制御群を比較したユーザスタディにより,呼吸フィードバックがシステムのユーザビリティを向上させることが示された。
呼吸追跡モデルでは,1分あたり1.6呼吸の平均絶対誤差(MAE)が地上の真理データと密接に一致し,その一方で,マインドフルネススキル推定では80~84%の追跡技術進歩が達成されている。
呼吸トラッキングとマインドフルネス推定を商用アプリに統合することにより、スマートフォンセンサーがデジタルマインドフルネストレーニングを強化する可能性を実証する。
関連論文リスト
- Airway Skill Assessment with Spatiotemporal Attention Mechanisms Using Human Gaze [2.125763116614213]
航空管理技術は救急医療において重要であり、通常主観的評価によって評価される。
本稿では,気道技能,特に気管内挿管(ETI)を評価するための機械学習アプローチを提案する。
提案システムは,ヒトの視線によって誘導される注意機構を利用して,成功・失敗のETI手順の認識を高める。
論文 参考訳(メタデータ) (2025-06-24T04:40:58Z) - AI-based Multimodal Biometrics for Detecting Smartphone Distractions: Application to Online Learning [13.124145425838792]
本稿では、生理的信号と頭部ポーズデータを利用して、電話の使用を検出するAIベースのアプローチを提案する。
以上の結果から,脳波や心拍数などの生体信号の精度は低く,頭部ポーズだけで87%の精度が得られた。
すべての信号を組み合わせたマルチモーダルモデルは91%の精度に達し、統合の利点を強調している。
論文 参考訳(メタデータ) (2025-06-20T11:37:19Z) - Truly Self-Improving Agents Require Intrinsic Metacognitive Learning [59.60803539959191]
自己改善エージェントは、最小限の監督で継続的に新しい能力を取得することを目的としている。
現在のアプローチは2つの重要な制限に直面している。自己改善プロセスは、しばしば厳格であり、タスクドメイン全体にわたって一般化できない。
我々は、効果的な自己改善は、エージェントの本質的な能力として定義された固有のメタ認知学習を必要とし、自身の学習プロセスを積極的に評価し、反映し、適応させる。
論文 参考訳(メタデータ) (2025-06-05T14:53:35Z) - Sensory-driven microinterventions for improved health and wellbeing [12.06492013883826]
5つの感覚は私たちの幸福への入り口であり、その減少は公衆衛生上の重要な課題だと考えられている。
現代のテクノロジーは、感覚の力を活用して、私たちのアプローチを日々の医療に転換する能力を持っています。
予防・パーソナライズされた医療のための感覚駆動型マイクロインターベンションの考え方を紹介する。
論文 参考訳(メタデータ) (2025-03-18T10:17:55Z) - Incremental Learning Techniques for Online Human Activity Recognition [0.0]
身体運動のオンライン予測のためのヒューマンアクティビティ認識(HAR)手法を提案する。
我々は,監視ソフトウェアを含むHARシステムと加速度計とジャイロスコープデータを収集するモバイルアプリケーションを開発する。
この研究で6つの漸進的学習アルゴリズムが採用され、オフラインのHARシステムの開発によく使用されるバッチ学習アルゴリズムと比較される。
論文 参考訳(メタデータ) (2021-09-20T11:33:09Z) - Counterfactual Attention Learning for Fine-Grained Visual Categorization
and Re-identification [101.49122450005869]
本稿では,因果推論に基づくより効果的な注意力学習法を提案する。
具体的には,学習した視覚的注意がネットワーク予測に与える影響を分析する。
本手法は,広範囲の粒度認識タスクにおいて評価する。
論文 参考訳(メタデータ) (2021-08-19T14:53:40Z) - Backprop-Free Reinforcement Learning with Active Neural Generative
Coding [84.11376568625353]
動的環境におけるエラー(バックプロップ)のバックプロパゲーションを伴わない行動駆動型生成モデルの学習のための計算フレームワークを提案する。
我々は、まばらな報酬でも機能するインテリジェントエージェントを開発し、推論として計画の認知理論からインスピレーションを得ている。
我々のエージェントの堅牢な性能は、神経推論と学習のためのバックプロップフリーアプローチがゴール指向の行動を促進するという有望な証拠を提供する。
論文 参考訳(メタデータ) (2021-07-10T19:02:27Z) - MET: Multimodal Perception of Engagement for Telehealth [52.54282887530756]
ビデオから人間のエンゲージメントレベルを知覚する学習ベースアルゴリズムMETを提案する。
我々はメンタルヘルス患者のエンゲージメント検出のための新しいデータセットMEDICAをリリースした。
論文 参考訳(メタデータ) (2020-11-17T15:18:38Z) - Anxiety Detection Leveraging Mobile Passive Sensing [53.11661460916551]
不安障害は、子供と成人の両方に影響を及ぼす最も一般的な精神医学的問題である。
スマートフォンから受動的かつ控えめなデータ収集を活用することは、古典的な方法の代替となるかもしれない。
eWellnessは、個人デバイスのセンサとユーザログデータの完全な適合性を、連続的かつ受動的に追跡するために設計された、実験的なモバイルアプリケーションである。
論文 参考訳(メタデータ) (2020-08-09T20:22:52Z) - Continuous Emotion Recognition via Deep Convolutional Autoencoder and
Support Vector Regressor [70.2226417364135]
マシンはユーザの感情状態を高い精度で認識できることが不可欠である。
ディープニューラルネットワークは感情を認識する上で大きな成功を収めている。
表情認識に基づく連続的感情認識のための新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-01-31T17:47:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。