論文の概要: BabyNet: A Lightweight Network for Infant Reaching Action Recognition in
Unconstrained Environments to Support Future Pediatric Rehabilitation
Applications
- arxiv url: http://arxiv.org/abs/2208.04950v1
- Date: Tue, 9 Aug 2022 07:38:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-11 12:41:46.598440
- Title: BabyNet: A Lightweight Network for Infant Reaching Action Recognition in
Unconstrained Environments to Support Future Pediatric Rehabilitation
Applications
- Title(参考訳): babynet:小児期リハビリテーション支援のための非拘束環境における行動認識のための軽量ネットワーク
- Authors: Amel Dechemi, Vikarn Bhakri, Ipsita Sahin, Arjun Modi, Julya Mestas,
Pamodya Peiris, Dannya Enriquez Barrundia, Elena Kokkoni, and Konstantinos
Karydis
- Abstract要約: 動作認識は、ウェアラブルロボット外骨格のような物理的リハビリテーション装置の自律性を改善する重要な要素である。
本稿では,生体外静止カメラから幼児の到達行動を認識する軽量ネットワーク構造であるBabyNetを紹介する。
- 参考スコア(独自算出の注目度): 5.4771139749266435
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Action recognition is an important component to improve autonomy of physical
rehabilitation devices, such as wearable robotic exoskeletons. Existing human
action recognition algorithms focus on adult applications rather than pediatric
ones. In this paper, we introduce BabyNet, a light-weight (in terms of
trainable parameters) network structure to recognize infant reaching action
from off-body stationary cameras. We develop an annotated dataset that includes
diverse reaches performed while in a sitting posture by different infants in
unconstrained environments (e.g., in home settings, etc.). Our approach uses
the spatial and temporal connection of annotated bounding boxes to interpret
onset and offset of reaching, and to detect a complete reaching action. We
evaluate the efficiency of our proposed approach and compare its performance
against other learning-based network structures in terms of capability of
capturing temporal inter-dependencies and accuracy of detection of reaching
onset and offset. Results indicate our BabyNet can attain solid performance in
terms of (average) testing accuracy that exceeds that of other larger networks,
and can hence serve as a light-weight data-driven framework for video-based
infant reaching action recognition.
- Abstract(参考訳): 動作認識は、ウェアラブルロボット外骨格のような物理的リハビリテーション装置の自律性を改善する重要な要素である。
既存の人間の行動認識アルゴリズムは、小児よりも成人向けに重点を置いている。
本稿では,乳児が体外静止カメラから到達する動作を認識するための,軽量(訓練可能なパラメータによる)ネットワーク構造であるbabynetを紹介する。
拘束されていない環境(例えば、自宅の設定など)において、異なる幼児が着座姿勢で行う多様なリーチを含む注釈付きデータセットを開発する。
提案手法では,注釈付き有界箱の空間的および時間的接続を用いて,到達の開始とオフセットを解釈し,完全な到達動作を検出する。
提案手法の有効性を評価し,その性能を,時間的相互依存を捉える能力と,到達とオフセットの検出精度の観点から他の学習ベースのネットワーク構造と比較した。
その結果,我々のbabynetは,他の大規模ネットワークよりも高い(平均)テスト精度を達成でき,その結果,ビデオベースの幼児が行動認識に到達するための軽量データ駆動フレームワークとして機能することが示された。
関連論文リスト
- Challenges in Video-Based Infant Action Recognition: A Critical
Examination of the State of the Art [9.327466428403916]
InfActPrimitive’という,5つの重要な幼児マイルストーンアクションカテゴリを含む,画期的なデータセットを紹介します。
近縁骨格に基づく行動認識モデルを用いた広範囲な比較分析を行う。
以上の結果から,PoseC3Dモデルでは約71%の精度で高い精度を達成できたが,残りのモデルでは乳幼児行動の動態を正確に把握することが困難であった。
論文 参考訳(メタデータ) (2023-11-21T02:36:47Z) - Adaptive Local-Component-aware Graph Convolutional Network for One-shot
Skeleton-based Action Recognition [54.23513799338309]
骨格に基づく行動認識のための適応的局所成分認識グラフ畳み込みネットワークを提案する。
我々の手法はグローバルな埋め込みよりも強力な表現を提供し、我々のモデルが最先端に到達するのに役立ちます。
論文 参考訳(メタデータ) (2022-09-21T02:33:07Z) - Vision-Based Activity Recognition in Children with Autism-Related
Behaviors [15.915410623440874]
臨床医や親が子どもの行動を分析するのに役立つ地域型コンピュータビジョンシステムの効果を実証する。
データは、ビデオ中の対象の子供を検出し、背景雑音の影響を低減することで前処理される。
時間的畳み込みモデルの有効性から,ビデオフレームから動作特徴を抽出できる軽量モデルと従来モデルの両方を提案する。
論文 参考訳(メタデータ) (2022-08-08T15:12:27Z) - Real-time landmark detection for precise endoscopic submucosal
dissection via shape-aware relation network [51.44506007844284]
内視鏡下粘膜下郭清術における高精度かつリアルタイムなランドマーク検出のための形状認識型関係ネットワークを提案する。
まず,ランドマーク間の空間的関係に関する先行知識を直感的に表現する関係キーポイント・ヒートマップを自動生成するアルゴリズムを考案する。
次に、事前知識を学習プロセスに段階的に組み込むために、2つの補完的な正規化手法を開発する。
論文 参考訳(メタデータ) (2021-11-08T07:57:30Z) - Skeleton-Based Mutually Assisted Interacted Object Localization and
Human Action Recognition [111.87412719773889]
本研究では,骨格データに基づく「相互作用対象の局所化」と「人間の行動認識」のための共同学習フレームワークを提案する。
本手法は,人間の行動認識のための最先端の手法を用いて,最高の,あるいは競争的な性能を実現する。
論文 参考訳(メタデータ) (2021-10-28T10:09:34Z) - Kinship Verification Based on Cross-Generation Feature Interaction
Learning [53.62256887837659]
顔画像からの血縁検証は、コンピュータビジョンの応用において、新しいが挑戦的な技術として認識されている。
本稿では,頑健な親族関係検証のためのクロスジェネレーション・インタラクション・ラーニング(CFIL)フレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-07T01:50:50Z) - Joint Learning of Neural Transfer and Architecture Adaptation for Image
Recognition [77.95361323613147]
現在の最先端の視覚認識システムは、大規模データセット上でニューラルネットワークを事前トレーニングし、より小さなデータセットでネットワーク重みを微調整することに依存している。
本稿では,各ドメインタスクに適応したネットワークアーキテクチャの動的適応と,効率と効率の両面で重みの微調整の利点を実証する。
本手法は,ソースドメインタスクでスーパーネットトレーニングを自己教師付き学習に置き換え,下流タスクで線形評価を行うことにより,教師なしパラダイムに容易に一般化することができる。
論文 参考訳(メタデータ) (2021-03-31T08:15:17Z) - A Deep Learning Approach to Tongue Detection for Pediatric Population [1.5484595752241122]
重度の障害と複雑なコミュニケーションを持つ子どもたちは、アクセス技術(AT)デバイスの使用に制限に直面している。
これまでの研究では、成人被験者に対する舌検出アルゴリズムの頑健さが示されている。
本研究では,言語外ジェスチャ認識のためのネットワークアーキテクチャを実装し,自然条件下で録画されたビデオに対して評価を行った。
論文 参考訳(メタデータ) (2020-09-04T21:04:57Z) - Preterm infants' pose estimation with spatio-temporal features [7.054093620465401]
本稿では,手足検出・追跡における短期的特徴の活用について紹介する。
手足位置推定の実際の臨床実践で得られた深度ビデオを用いた最初の研究である。
論文 参考訳(メタデータ) (2020-05-08T09:51:22Z) - Minor Privacy Protection Through Real-time Video Processing at the Edge [4.4243708797335115]
本稿では,エッジ監視システムに手頃な軽量ソリューションについて検討する。
パイプラインは入力フレームから顔を取り出し、それぞれを大人または子供に分類する。
本稿では,他の顔認識による児童検出手法と比較して,分類精度92.1%のモデルが優れていることを示す。
論文 参考訳(メタデータ) (2020-05-03T20:19:15Z) - Dynamic Inference: A New Approach Toward Efficient Video Action
Recognition [69.9658249941149]
ビデオにおけるアクション認識は近年大きな成功を収めているが、膨大な計算コストのために依然として難しい課題である。
本稿では,異なるビデオの識別可能性の変動を利用して,推論効率を向上させるための一般的な動的推論手法を提案する。
論文 参考訳(メタデータ) (2020-02-09T11:09:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。