論文の概要: Application-Driven AI Paradigm for Human Action Recognition
- arxiv url: http://arxiv.org/abs/2209.15271v1
- Date: Fri, 30 Sep 2022 07:22:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-03 14:20:39.755953
- Title: Application-Driven AI Paradigm for Human Action Recognition
- Title(参考訳): ヒューマンアクション認識のためのアプリケーション駆動aiパラダイム
- Authors: Zezhou Chen, Yajie Cui, Kaikai Zhao, Zhaoxiang Liu and Shiguo Lian
- Abstract要約: 本稿では,2つのモジュール,すなわち多形人間の検出とそれに対応する行動分類からなる統合された人間の行動認識フレームワークを提案する。
いくつかの実験結果から、統合フレームワークは様々なアプリケーションシナリオに有効であることが示された。
- 参考スコア(独自算出の注目度): 2.0342996661888995
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Human action recognition in computer vision has been widely studied in recent
years. However, most algorithms consider only certain action specially with
even high computational cost. That is not suitable for practical applications
with multiple actions to be identified with low computational cost. To meet
various application scenarios, this paper presents a unified human action
recognition framework composed of two modules, i.e., multi-form human detection
and corresponding action classification. Among them, an open-source dataset is
constructed to train a multi-form human detection model that distinguishes a
human being's whole body, upper body or part body, and the followed action
classification model is adopted to recognize such action as falling, sleeping
or on-duty, etc. Some experimental results show that the unified framework is
effective for various application scenarios. It is expected to be a new
application-driven AI paradigm for human action recognition.
- Abstract(参考訳): コンピュータビジョンにおける人間の行動認識は近年広く研究されている。
しかし、ほとんどのアルゴリズムは特定の行動のみを高い計算コストで考慮している。
これは、計算コストの低い複数のアクションを持つ実用的なアプリケーションには適していない。
様々な応用シナリオを満たすため,本稿では,2つのモジュール,すなわち多形人間検出と対応行動分類からなる統合型ヒューマンアクション認識フレームワークを提案する。
このうち、人体全体、上体または部分体とを区別する多形態の人体検出モデルを訓練するためにオープンソースのデータセットを構築し、それに続く行動分類モデルを用いて、落下、睡眠、運転などの動作を認識する。
いくつかの実験結果は、統一フレームワークが様々なアプリケーションシナリオに有効であることを示している。
人間の行動認識のためのアプリケーション駆動型AIパラダイムとして期待されている。
関連論文リスト
- Evaluating Multiview Object Consistency in Humans and Image Models [68.36073530804296]
我々は、物体の形状に関するゼロショット視覚的推論を必要とする認知科学の実験的設計を活用する。
我々は500人以上の参加者から行動データの35万件の試行を収集した。
次に、一般的な視覚モデルの性能を評価する。
論文 参考訳(メタデータ) (2024-09-09T17:59:13Z) - Robust Activity Recognition for Adaptive Worker-Robot Interaction using
Transfer Learning [0.0]
本稿では,建設労働者の行動認識のための伝達学習手法を提案する。
開発したアルゴリズムは、オリジナルの著者によって事前訓練されたモデルから特徴を伝達し、それらを下流のアクティビティ認識タスクのために微調整する。
その結果, 微調整モデルでは, 異なるMMHタスクを頑健かつ適応的に認識できることが示唆された。
論文 参考訳(メタデータ) (2023-08-28T19:03:46Z) - Actor-agnostic Multi-label Action Recognition with Multi-modal Query [42.38571663534819]
既存の行動認識法は通常アクター固有のものである。
これはアクター固有のポーズ推定(例えば人間対動物)を必要とする。
我々は「アクター非依存型マルチモーダルマルチラベル動作認識」という新しいアプローチを提案する。
論文 参考訳(メタデータ) (2023-07-20T10:53:12Z) - DOAD: Decoupled One Stage Action Detection Network [77.14883592642782]
人々をローカライズし、ビデオからアクションを認識することは、ハイレベルなビデオ理解にとって難しい課題だ。
既存の手法は主に2段階ベースで、1段階は人物境界ボックス生成、もう1段階は行動認識を行う。
本稿では、時間的行動検出の効率を向上させるために、DOADと呼ばれる分離したワンステージネットワークを提案する。
論文 参考訳(メタデータ) (2023-04-01T08:06:43Z) - iCub! Do you recognize what I am doing?: multimodal human action
recognition on multisensory-enabled iCub robot [0.0]
提案したマルチモーダルアンサンブル学習は、3つのカラーカメラと1つの深度センサの相補的特性を活用する。
提案したモデルは,マルチモーダル動作認識を必要とするiCubロボットに展開可能であることを示す。
論文 参考訳(メタデータ) (2022-12-17T12:40:54Z) - Technical Report: Disentangled Action Parsing Networks for Accurate
Part-level Action Parsing [65.87931036949458]
Part-level Action Parsingは、ビデオにおけるアクション認識を促進するための部分状態解析を目的としている。
DAP(disentangled action parsing)というシンプルなアプローチを提案する。
論文 参考訳(メタデータ) (2021-11-05T02:29:32Z) - Skeleton-Based Mutually Assisted Interacted Object Localization and
Human Action Recognition [111.87412719773889]
本研究では,骨格データに基づく「相互作用対象の局所化」と「人間の行動認識」のための共同学習フレームワークを提案する。
本手法は,人間の行動認識のための最先端の手法を用いて,最高の,あるいは競争的な性能を実現する。
論文 参考訳(メタデータ) (2021-10-28T10:09:34Z) - Recent Progress in Appearance-based Action Recognition [73.6405863243707]
アクション認識は、ビデオ内の様々な人間の行動を特定するタスクである。
最近の外見に基づく手法は、正確な行動認識に向けて有望な進歩を遂げている。
論文 参考訳(メタデータ) (2020-11-25T10:18:12Z) - A Grid-based Representation for Human Action Recognition [12.043574473965318]
ビデオにおけるヒューマンアクション認識(HAR)は、コンピュータビジョンにおける基本的な研究課題である。
本稿では,行動の最も識別性の高い外観情報を効率的に符号化する行動認識手法を提案する。
提案手法は, モデルが人間の行動を正確に認識できることを示すために, いくつかのベンチマークデータセットで検証される。
論文 参考訳(メタデータ) (2020-10-17T18:25:00Z) - Action similarity judgment based on kinematic primitives [48.99831733355487]
運動学に基づく計算モデルが動作類似性を決定する範囲について検討する。
選択されたモデルは、発達ロボティクスにルーツを持ち、学習されたキネマティックプリミティブに基づいて行動分類を行う。
その結果, 動作類似性タスクにおいて, モデルと人的性能の双方が, 運動レベルの特徴に基づく精度が高いことがわかった。
論文 参考訳(メタデータ) (2020-08-30T13:58:47Z) - Human Action Recognition without Human [16.328530279277057]
バックグラウンドシーケンスだけで、現在の大規模アクションデータセットで人間のアクションを分類できるかどうかを考察する。
実験は、アクションラベルを理解するためのバックグラウンドシーケンスの効果を明確に示す。
論文 参考訳(メタデータ) (2016-08-29T01:22:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。