論文の概要: PoseAction: Action Recognition for Patients in the Ward using Deep
Learning Approaches
- arxiv url: http://arxiv.org/abs/2310.03288v1
- Date: Thu, 5 Oct 2023 03:33:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-06 19:31:11.746057
- Title: PoseAction: Action Recognition for Patients in the Ward using Deep
Learning Approaches
- Title(参考訳): PoseAction:Deep Learning Approach を用いた病棟患者の行動認識
- Authors: Zherui Li and Raye Chen-Hua Yeow
- Abstract要約: 本稿では,コンピュータビジョン(CV)と深層学習(DL)を用いて被験者を検出し,その行動を認識することを提案する。
映像ストリーム中の人体の位置を認識するために,OpenPoseを精度の高い被験者検出装置として利用する。
本稿では,AlphActionのAsynchronous Interaction Aggregation (AIA) ネットワークを用いて検出対象の動作を予測する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Real-time intelligent detection and prediction of subjects' behavior
particularly their movements or actions is critical in the ward. This approach
offers the advantage of reducing in-hospital care costs and improving the
efficiency of healthcare workers, which is especially true for scenarios at
night or during peak admission periods. Therefore, in this work, we propose
using computer vision (CV) and deep learning (DL) methods for detecting
subjects and recognizing their actions. We utilize OpenPose as an accurate
subject detector for recognizing the positions of human subjects in the video
stream. Additionally, we employ AlphAction's Asynchronous Interaction
Aggregation (AIA) network to predict the actions of detected subjects. This
integrated model, referred to as PoseAction, is proposed. At the same time, the
proposed model is further trained to predict 12 common actions in ward areas,
such as staggering, chest pain, and falling down, using medical-related video
clips from the NTU RGB+D and NTU RGB+D 120 datasets. The results demonstrate
that PoseAction achieves the highest classification mAP of 98.72% (IoU@0.5).
Additionally, this study develops an online real-time mode for action
recognition, which strongly supports the clinical translation of PoseAction.
Furthermore, using OpenPose's function for recognizing face key points, we also
implement face blurring, which is a practical solution to address the privacy
protection concerns of patients and healthcare workers. Nevertheless, the
training data for PoseAction is currently limited, particularly in terms of
label diversity. Consequently, the subsequent step involves utilizing a more
diverse dataset (including general actions) to train the model's parameters for
improved generalization.
- Abstract(参考訳): 病棟では,被検者の行動,特に行動や行動のリアルタイムインテリジェントな検出と予測が重要である。
このアプローチは、病院内医療費の削減と、特に夜間やピーク時のシナリオに当てはまる医療従事者の効率の向上という利点を提供する。
そこで本研究では,コンピュータビジョン (cv) とディープラーニング (dl) を用いて被験者の検出と行動認識を行う手法を提案する。
映像ストリーム中の人体の位置を認識するために,OpenPoseを精度の高い被験者検出器として利用する。
さらに,AlphActionのAsynchronous Interaction Aggregation(AIA)ネットワークを用いて検出対象の動作を予測する。
この統合モデルはPoseActionと呼ばれ、提案されている。
同時に、NTU RGB+DおよびNTU RGB+D 120データセットの医療関連ビデオクリップを用いて、ステージング、胸痛、転倒などの病棟における12の共通行動を予測するために、提案モデルをさらに訓練した。
その結果、PoseActionは98.72%(IoU@0.5)の最高分類mAPを達成した。
さらに,本研究では,PoseActionの臨床翻訳を強く支援するオンライン行動認識モードを開発した。
さらに, 顔のキーポイントを認識するために OpenPose の機能を利用することで, 患者や医療従事者のプライバシー保護問題に対処するための, 顔のぼかしも実装する。
それでも、PoseActionのトレーニングデータは、特にラベルの多様性に関して制限されている。
したがって、その後のステップでは、より多様なデータセット(一般的なアクションを含む)を使用してモデルのパラメータをトレーニングし、一般化を改善する。
関連論文リスト
- HabitAction: A Video Dataset for Human Habitual Behavior Recognition [3.7478789114676108]
ヒトの習慣行動(HHBs)は、人の性格、習慣、心理的変化を分析する上で重要な役割を担っている。
本研究では,様々なHHBを実演するための新しいビデオデータセットを構築した。
データセットには、300,000フレーム以上と6,899のアクションインスタンスを含む、30の習慣行動カテゴリが含まれている。
論文 参考訳(メタデータ) (2024-08-24T04:40:31Z) - SMART: Scene-motion-aware human action recognition framework for mental disorder group [16.60713558596286]
本稿では、精神障害グループで頻繁に発生する異常行動を含む視覚に基づくヒューマンアクション認識データセットを構築することを提案する。
次に,Scene-Motion-Aware Action RecognitionフレームワークであるSMARTを紹介した。
提案手法の有効性を自己収集したHARデータセット(HAD)で検証し,未確認の被写体とシーンにおいて94.9%,93.1%の精度を達成し,最先端のアプローチを6.5%,13.2%向上させた。
論文 参考訳(メタデータ) (2024-06-07T05:29:42Z) - Position and Orientation-Aware One-Shot Learning for Medical Action
Recognition from Signal Data [9.757753196253532]
信号データから医療行動認識のための位置認識・向き認識型ワンショット学習フレームワークを提案する。
提案するフレームワークは,信号レベル画像生成(SIG),クロスアテンション(CsA),動的時間ワープ(DTW)モジュールの2段階からなる。
論文 参考訳(メタデータ) (2023-09-27T13:08:15Z) - Actionlet-Dependent Contrastive Learning for Unsupervised Skeleton-Based
Action Recognition [33.68311764817763]
本稿では,ActCLR(Actionlet-Dependent Contrastive Learning Method)を提案する。
ヒト骨格の識別サブセットとして定義されるアクションレットは、より優れたアクションモデリングのために、効果的に運動領域を分解する。
異なるデータ変換がアクションレットおよび非アクションレット領域に適用され、独自の特性を維持しながら、より多くの多様性を導入する。
論文 参考訳(メタデータ) (2023-03-20T06:47:59Z) - DisenHCN: Disentangled Hypergraph Convolutional Networks for
Spatiotemporal Activity Prediction [53.76601630407521]
本稿では,既存のソリューションのギャップを埋めるために,DistenHCNと呼ばれるハイパーグラフネットワークモデルを提案する。
特に,ユーザの好みと時間的活動の複雑なマッチングをヘテロジニアスなハイパーグラフにまとめる。
次に、ユーザ表現を異なる側面(位置認識、時間認識、活動認識)に切り離し、構築したハイパーグラフ上に対応するアスペクトの特徴を集約する。
論文 参考訳(メタデータ) (2022-08-14T06:51:54Z) - Real-time landmark detection for precise endoscopic submucosal
dissection via shape-aware relation network [51.44506007844284]
内視鏡下粘膜下郭清術における高精度かつリアルタイムなランドマーク検出のための形状認識型関係ネットワークを提案する。
まず,ランドマーク間の空間的関係に関する先行知識を直感的に表現する関係キーポイント・ヒートマップを自動生成するアルゴリズムを考案する。
次に、事前知識を学習プロセスに段階的に組み込むために、2つの補完的な正規化手法を開発する。
論文 参考訳(メタデータ) (2021-11-08T07:57:30Z) - Skeleton-Based Mutually Assisted Interacted Object Localization and
Human Action Recognition [111.87412719773889]
本研究では,骨格データに基づく「相互作用対象の局所化」と「人間の行動認識」のための共同学習フレームワークを提案する。
本手法は,人間の行動認識のための最先端の手法を用いて,最高の,あるいは競争的な性能を実現する。
論文 参考訳(メタデータ) (2021-10-28T10:09:34Z) - One-shot action recognition towards novel assistive therapies [63.23654147345168]
この作業は、アクション模倣ゲームを含む医療療法の自動分析によって動機づけられます。
提案手法は、異種運動データ条件を標準化する前処理ステップを組み込んだものである。
自閉症者に対するセラピー支援のための自動ビデオ分析の実際の利用事例について検討した。
論文 参考訳(メタデータ) (2021-02-17T19:41:37Z) - Spatial-Temporal Alignment Network for Action Recognition and Detection [80.19235282200697]
本稿では,行動認識と検出を支援する視点不変の特徴表現を導入する方法について検討する。
本稿では,行動認識と行動検出のための幾何学的不変表現の学習を目的とした,空間時間アライメントネットワーク(STAN)を提案する。
我々は、AVA、Kinetics-400、AVA-Kinetics、Charades、Charades-EgoのデータセットでSTANモデルを広範囲にテストした。
論文 参考訳(メタデータ) (2020-12-04T06:23:40Z) - Attention-Oriented Action Recognition for Real-Time Human-Robot
Interaction [11.285529781751984]
本稿では,リアルタイムインタラクションの必要性に応えるために,アテンション指向のマルチレベルネットワークフレームワークを提案する。
具体的には、プレアテンションネットワークを使用して、低解像度でシーン内のインタラクションに大まかにフォーカスする。
他のコンパクトCNNは、抽出されたスケルトンシーケンスをアクション認識用の入力として受信する。
論文 参考訳(メタデータ) (2020-07-02T12:41:28Z) - Intra- and Inter-Action Understanding via Temporal Action Parsing [118.32912239230272]
本研究では,スポーツビデオにサブアクションの手動アノテーションを付加した新しいデータセットを構築し,その上に時間的行動解析を行う。
スポーツ活動は通常、複数のサブアクションから構成されており、このような時間構造に対する意識は、行動認識に有益であることを示す。
また,時間的解析手法を多数検討し,そのラベルを知らずにトレーニングデータからサブアクションをマイニングできる改良手法を考案した。
論文 参考訳(メタデータ) (2020-05-20T17:45:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。