論文の概要: Human Action Recognition without Human
- arxiv url: http://arxiv.org/abs/1608.07876v2
- Date: Wed, 23 Oct 2024 20:32:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-27 22:31:32.585540
- Title: Human Action Recognition without Human
- Title(参考訳): 人間を介さない人間の行動認識
- Authors: Hirokatsu Kataoka, Kensho Hara, Yutaka Satoh,
- Abstract要約: バックグラウンドシーケンスだけで、現在の大規模アクションデータセットで人間のアクションを分類できるかどうかを考察する。
実験は、アクションラベルを理解するためのバックグラウンドシーケンスの効果を明確に示す。
- 参考スコア(独自算出の注目度): 16.328530279277057
- License:
- Abstract: The objective of this paper is to evaluate "human action recognition without human". Motion representation is frequently discussed in human action recognition. We have examined several sophisticated options, such as dense trajectories (DT) and the two-stream convolutional neural network (CNN). However, some features from the background could be too strong, as shown in some recent studies on human action recognition. Therefore, we considered whether a background sequence alone can classify human actions in current large-scale action datasets (e.g., UCF101). In this paper, we propose a novel concept for human action analysis that is named "human action recognition without human". An experiment clearly shows the effect of a background sequence for understanding an action label.
- Abstract(参考訳): 本研究の目的は「人間を伴わない人間の行動認識」を評価することである。
動作表現は人間の行動認識において頻繁に議論される。
我々は、高密度軌跡(DT)や2ストリーム畳み込みニューラルネットワーク(CNN)など、いくつかの高度な選択肢を検討した。
しかし、背景にあるいくつかの特徴は、人間の行動認識に関する最近の研究で示されているように、強すぎる可能性がある。
そこで本研究では,現在の大規模行動データセット(UCF101など)において,バックグラウンドシーケンスだけで人間の行動を分類できるかどうかを検討した。
本稿では,人間を介さない人間の行動認識という,人間の行動分析の新しい概念を提案する。
実験は、アクションラベルを理解するためのバックグラウンドシーケンスの効果を明確に示す。
関連論文リスト
- Humans in 4D: Reconstructing and Tracking Humans with Transformers [72.50856500760352]
我々は、人間を再構築し、時間とともに追跡するアプローチを提案する。
このアプローチの中核として、人間のメッシュリカバリのためのネットワークの完全な"トランスフォーマライズ"バージョンを提案する。
このネットワークであるHMR 2.0は、芸術の状態を前進させ、過去に1枚の画像から再構成することが困難であった異常なポーズを分析する能力を示す。
論文 参考訳(メタデータ) (2023-05-31T17:59:52Z) - Task-Oriented Human-Object Interactions Generation with Implicit Neural
Representations [61.659439423703155]
TOHO: 命令型ニューラル表現を用いたタスク指向型ヒューマンオブジェクトインタラクション生成
本手法は時間座標のみでパラメータ化される連続運動を生成する。
この研究は、一般的なヒューマン・シーンの相互作用シミュレーションに向けて一歩前進する。
論文 参考訳(メタデータ) (2023-03-23T09:31:56Z) - Application-Driven AI Paradigm for Human Action Recognition [2.0342996661888995]
本稿では,2つのモジュール,すなわち多形人間の検出とそれに対応する行動分類からなる統合された人間の行動認識フレームワークを提案する。
いくつかの実験結果から、統合フレームワークは様々なアプリケーションシナリオに有効であることが示された。
論文 参考訳(メタデータ) (2022-09-30T07:22:01Z) - GIMO: Gaze-Informed Human Motion Prediction in Context [75.52839760700833]
本研究では、高品質なボディポーズシーケンス、シーンスキャン、目視によるエゴ中心のビューを提供する大規模な人体動作データセットを提案する。
私たちのデータ収集は特定のシーンに縛られません。
視線の全可能性を実現するために,視線と運動枝の双方向通信を可能にする新しいネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-04-20T13:17:39Z) - Overcoming the Domain Gap in Neural Action Representations [60.47807856873544]
3Dポーズデータは、手動で介入することなく、マルチビュービデオシーケンスから確実に抽出できる。
本稿では,ニューラルアクション表現の符号化を,ニューラルアクションと行動拡張のセットと共に導くために使用することを提案する。
ドメインギャップを減らすために、トレーニングの間、同様の行動をしているように見える動物間で神経と行動のデータを取り替える。
論文 参考訳(メタデータ) (2021-12-02T12:45:46Z) - From Movement Kinematics to Object Properties: Online Recognition of
Human Carefulness [112.28757246103099]
ロボットは、視覚だけで、人間のパートナーが物体を動かす際に注意を払っているかを、どのようにオンラインで推測できるかを示す。
我々は,低解像度カメラでも高い精度(最大81.3%)でこの推論を行うことができることを示した。
パートナーの行動を観察することによる動きの注意の迅速な認識により、ロボットはオブジェクトに対する行動に適応し、人間のパートナーと同じケアの度合いを示すことができる。
論文 参考訳(メタデータ) (2021-09-01T16:03:13Z) - Human Activity Recognition Using Multichannel Convolutional Neural
Network [0.0]
人間の活動認識(HAR)は、単に人間の行動を知覚する機械の能力を指します。
本論文では,実用的行動から収集したデータに基づいて,人間の行動を区別できる教師付き学習法について述べる。
このモデルはUCI HARデータセットでテストされ、95.25%の分類精度が得られた。
論文 参考訳(メタデータ) (2021-01-17T16:48:17Z) - 3D Human motion anticipation and classification [8.069283749930594]
人間の動き予測と特徴学習のための新しいシーケンス・トゥ・シークエンスモデルを提案する。
我々のモデルは、同じ入力シーケンスから複数の人間のポーズの将来のシーケンスを予測することを学習する。
識別器から学習した特徴を用いて,行動認識ネットワークを訓練するには,エポック数の半分以下しかかからないことを示す。
論文 参考訳(メタデータ) (2020-12-31T00:19:39Z) - Action2Motion: Conditioned Generation of 3D Human Motions [28.031644518303075]
我々は3Dで人間の動作シーケンスを生成することを目的としている。
それぞれのサンプル配列は、自然界の体動力学に忠実に類似している。
新しい3DモーションデータセットであるHumanAct12も構築されている。
論文 参考訳(メタデータ) (2020-07-30T05:29:59Z) - Human Activity Recognition based on Dynamic Spatio-Temporal Relations [10.635134217802783]
1つの人間の行動の記述と、連続する人間の行動の進化のモデル化は、人間の活動認識における2つの主要な問題である。
これら2つの課題に対処する人間行動認識手法を開発した。
論文 参考訳(メタデータ) (2020-06-29T15:49:34Z) - Human Grasp Classification for Reactive Human-to-Robot Handovers [50.91803283297065]
本稿では,ロボットが人間に遭遇するロボットのハンドオーバに対するアプローチを提案する。
対象物をさまざまな手形やポーズで保持する典型的な方法をカバーする,人間の把握データセットを収集する。
本稿では,検出した把握位置と手の位置に応じて人手から対象物を取り出す計画実行手法を提案する。
論文 参考訳(メタデータ) (2020-03-12T19:58:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。