論文の概要: A Video-based End-to-end Pipeline for Non-nutritive Sucking Action
Recognition and Segmentation in Young Infants
- arxiv url: http://arxiv.org/abs/2303.16867v1
- Date: Wed, 29 Mar 2023 17:24:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-30 13:44:18.564709
- Title: A Video-based End-to-end Pipeline for Non-nutritive Sucking Action
Recognition and Segmentation in Young Infants
- Title(参考訳): 乳幼児の無栄養吸引行動認識とセグメンテーションのためのビデオベースエンド・ツー・エンドパイプライン
- Authors: Shaotong Zhu, Michael Wan, Elaheh Hatamimajoumerd, Kashish Jain,
Samuel Zlota, Cholpady Vikram Kamath, Cassandra B. Rowan, Emma C. Grace,
Matthew S. Goodwin, Marie J. Hayes, Rebecca A. Schwartz-Mette, Emily
Zimmerman, Sarah Ostadabbas
- Abstract要約: 非栄養吸引は発達遅延の潜在的なバイオマーカーである。
NNSの臨床評価の障壁の1つは、その疎さにある。
提案手法は,基礎となるNS行動認識アルゴリズムに基づいている。
- 参考スコア(独自算出の注目度): 15.049449914396462
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We present an end-to-end computer vision pipeline to detect non-nutritive
sucking (NNS) -- an infant sucking pattern with no nutrition delivered -- as a
potential biomarker for developmental delays, using off-the-shelf baby monitor
video footage. One barrier to clinical (or algorithmic) assessment of NNS stems
from its sparsity, requiring experts to wade through hours of footage to find
minutes of relevant activity. Our NNS activity segmentation algorithm solves
this problem by identifying periods of NNS with high certainty -- up to 94.0\%
average precision and 84.9\% average recall across 30 heterogeneous 60 s clips,
drawn from our manually annotated NNS clinical in-crib dataset of 183 hours of
overnight baby monitor footage from 19 infants. Our method is based on an
underlying NNS action recognition algorithm, which uses spatiotemporal deep
learning networks and infant-specific pose estimation, achieving 94.9\%
accuracy in binary classification of 960 2.5 s balanced NNS vs. non-NNS clips.
Tested on our second, independent, and public NNS in-the-wild dataset, NNS
recognition classification reaches 92.3\% accuracy, and NNS segmentation
achieves 90.8\% precision and 84.2\% recall.
- Abstract(参考訳): 乳児の非栄養吸引パターンである非栄養吸引(NNS)を検出するエンドツーエンドのコンピュータビジョンパイプラインを、市販のベビーモニター映像を用いて、発達遅延の潜在的なバイオマーカーとして提示する。
NNSの臨床的(あるいはアルゴリズム的な)評価の障壁の1つは、その空白さに起因し、専門家は関連する活動の数分を何時間も経過観察する必要がある。
当社のnnsアクティビティセグメンテーションアルゴリズムは、平均精度94.0\%、平均リコール84.9\%のnns期間を、乳幼児19人の乳児モニター映像183時間の手作業によるnnsクリニカル・イン・クリブ・データセットから抽出した30の異種60sクリップで特定することで、この問題を解決します。
提案手法は, 時空間深層学習ネットワークと幼児固有のポーズ推定を用いて, 960 2.5 s/非NNSクリップのバイナリ分類において94.9 %の精度を達成し, NNSの行動認識アルゴリズムに基づく。
第2、独立、およびパブリックのnns in-the-wildデータセットでテストした結果、nnsの認識分類は92.3\%の精度に達し、nnsのセグメンテーションは90.8\%の精度と84.2\%のリコールを達成している。
関連論文リスト
- Towards Low-latency Event-based Visual Recognition with Hybrid Step-wise Distillation Spiking Neural Networks [50.32980443749865]
スパイキングニューラルネットワーク(SNN)は、低消費電力と高い生物性のために大きな注目を集めている。
現在のSNNは、ニューロモルフィックデータセットの正確性とレイテンシのバランスをとるのに苦労している。
ニューロモルフィックデータセットに適したステップワイド蒸留法(HSD)を提案する。
論文 参考訳(メタデータ) (2024-09-19T06:52:34Z) - When Spiking neural networks meet temporal attention image decoding and adaptive spiking neuron [7.478056407323783]
スパイキングニューラルネットワーク(SNN)は、生物学的に妥当な方法で時間情報をエンコードし、処理することができる。
本稿では,時間的注意(TAID)に基づく画像復号法と適応型Leaky-Integrate-and-Fireニューロンモデルを提案する。
論文 参考訳(メタデータ) (2024-06-05T08:21:55Z) - Subtle Signals: Video-based Detection of Infant Non-nutritive Sucking as
a Neurodevelopmental Cue [11.1943906461896]
非栄養吸引(Non-nutritive sucking、NNS)は、健康な早期発達を評価する上で重要な役割を担っている。
NNS活性は突然の幼児死亡症候群(SIDS)に対する潜在的防御として提案されている。
本研究では,自然環境下でのベビーモニター映像を用いたNNS活動の非接触検出のためのビジョンベースアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-10-24T19:26:07Z) - Activity Recognition From Newborn Resuscitation Videos [3.54339629317433]
タンザニアのヘイドムで、ビデオを含む新生児の蘇生中に記録された信号のデータセットが収集された。
新生児の蘇生時に活動認識を行うための2段階のディープニューラルネットワークシステムORAA-netを提案する。
このシステムは、新生児の活動、刺激、換気、吸引を平均精度77.67 %、平均リコール77,64 %、平均精度92.40 %と認識した。
論文 参考訳(メタデータ) (2023-03-14T11:04:32Z) - Osteoporosis Prescreening using Panoramic Radiographs through a Deep
Convolutional Neural Network with Attention Mechanism [65.70943212672023]
注意モジュールを持つディープ畳み込みニューラルネットワーク(CNN)はパノラマX線写真上で骨粗しょう症を検出することができる。
49歳から60歳までの70種類のパノラマX線写真(PR)のデータセットを用いて検討した。
論文 参考訳(メタデータ) (2021-10-19T00:03:57Z) - SOUL: An Energy-Efficient Unsupervised Online Learning Seizure Detection
Classifier [68.8204255655161]
神経活動を記録して発作を検出するインプラントデバイスは、発作を抑えるために警告を発したり神経刺激を誘発したりするために採用されている。
移植可能な発作検出システムでは、低出力で最先端のオンライン学習アルゴリズムを使用して、神経信号のドリフトに動的に適応することができる。
SOULはTSMCの28nmプロセスで0.1mm2を占め、1.5nJ/分級エネルギー効率を実現した。
論文 参考訳(メタデータ) (2021-10-01T23:01:20Z) - Transfer Learning of Deep Spatiotemporal Networks to Model Arbitrarily
Long Videos of Seizures [58.720142291102135]
てんかん患者の治療には, てんかんセミノロジーの詳細な分析が重要である。
本稿では、畳み込みニューラルネットワーク(CNN)とリカレントニューラルネットワーク(RNN)を組み合わせた新しいアーキテクチャであるGESTURESを紹介する。
本稿では,HARデータセットでトレーニングしたSTCNNとRNNを組み合わせて,任意の長さの発作映像を正確に表現できることを示す。
論文 参考訳(メタデータ) (2021-06-22T18:40:31Z) - Wide & Deep neural network model for patch aggregation in CNN-based
prostate cancer detection systems [51.19354417900591]
前立腺癌(PCa)は、2020年に約141万件の新規感染者と約37万5000人の死者を出した男性の死因の1つである。
自動診断を行うには、まず前立腺組織サンプルをギガピクセル分解能全スライド画像にデジタイズする。
パッチと呼ばれる小さなサブイメージが抽出され、予測され、パッチレベルの分類が得られる。
論文 参考訳(メタデータ) (2021-05-20T18:13:58Z) - Automatic classification of multiple catheters in neonatal radiographs
with deep learning [2.256008196530956]
新生児胸部および腹部X線写真上の複数のカテーテルを分類する深層学習アルゴリズムの開発と評価を行った。
畳み込みニューラルネットワーク(CNN)は,新生児胸部777例と腹部X線写真を用いて訓練した。
論文 参考訳(メタデータ) (2020-11-14T21:27:21Z) - Automatic detection of microsleep episodes with deep learning [55.41644538483948]
15秒未満の睡眠の短い断片は、マイクロスリープエピソード(MSEs)として定義される
覚醒検査(MWT)の維持は、警戒を評価するために臨床現場でしばしば用いられる。
MSEは、MSEを定義する確立された評価基準が欠如しているため、ほとんど考慮されていない。
入力として生の脳波とEOGデータに基づいて機械学習を用いてMSEを自動的に検出することを目的とした。
論文 参考訳(メタデータ) (2020-09-07T11:38:40Z) - Incorporating Learnable Membrane Time Constant to Enhance Learning of
Spiking Neural Networks [36.16846259899793]
スパイキングニューラルネットワーク(SNN)は、時間的情報処理能力、消費電力の低さ、高い生物学的信頼性により、膨大な研究関心を集めている。
既存の学習方法はウェイトのみを学習し、単一のスパイキングニューロンのダイナミクスを決定する膜関連パラメータを手動でチューニングする必要がある。
本稿では,脳の領域で膜関連パラメータが異なることの観察から着想を得て,シナプス重みだけでなく,SNNの膜時間定数も学習可能なトレーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-11T14:35:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。