論文の概要: Distribution of Action Movements (DAM): A Descriptor for Human Action
Recognition
- arxiv url: http://arxiv.org/abs/2310.17421v1
- Date: Thu, 26 Oct 2023 14:24:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-27 19:58:32.604557
- Title: Distribution of Action Movements (DAM): A Descriptor for Human Action
Recognition
- Title(参考訳): 行動運動の分布(DAM) : 人間の行動認識のための記述法
- Authors: Facundo Manuel Quiroga, Franco Ronchetti, Laura Lanzarini, Cesar
Eestrebou
- Abstract要約: フレーム間の関節の運動方向の分布に基づく新しい動作記述子を提案する。
ディスクリプタは、多くのよく知られたデータセット上で、最先端の技術よりも優れています。
- 参考スコア(独自算出の注目度): 0.3413711585591077
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human action recognition from skeletal data is an important and active area
of research in which the state of the art has not yet achieved near-perfect
accuracy on many well-known datasets. In this paper, we introduce the
Distribution of Action Movements Descriptor, a novel action descriptor based on
the distribution of the directions of the motions of the joints between frames,
over the set of all possible motions in the dataset. The descriptor is computed
as a normalized histogram over a set of representative directions of the
joints, which are in turn obtained via clustering. While the descriptor is
global in the sense that it represents the overall distribution of movement
directions of an action, it is able to partially retain its temporal structure
by applying a windowing scheme.
The descriptor, together with a standard classifier, outperforms several
state-of-the-art techniques on many well-known datasets.
- Abstract(参考訳): 骨格データからの人間の行動認識は、多くのよく知られたデータセットにおいて、その技術の状態がほぼ完全ではない重要かつ活発な研究領域である。
本稿では、データセット内の可能な全ての動きの集合に対して、フレーム間の関節の方向の分布に基づく新しいアクション記述子であるアクション動作記述子の分布を紹介する。
ディスクリプタは、関節の代表方向の集合上で正規化されたヒストグラムとして計算され、クラスタリングによって得られる。
ディスクリプタは動作の運動方向の全体分布を表すという意味ではグローバルであるが,ウィンドウ方式を適用することで時間的構造を部分的に保持することができる。
ディスクリプタは、標準の分類器とともに、多くのよく知られたデータセットで最先端の技術を上回る。
関連論文リスト
- An Information Compensation Framework for Zero-Shot Skeleton-based Action Recognition [49.45660055499103]
ゼロショットの人間の骨格に基づく行動認識は、トレーニング中に見られるカテゴリ外の行動を認識するモデルを構築することを目的としている。
従来の研究では、シーケンスの視覚的空間分布と意味的空間分布の整合性に焦点が当てられていた。
強固で頑健な表現を得るために,新たな損失関数サンプリング手法を提案する。
論文 参考訳(メタデータ) (2024-06-02T06:53:01Z) - Metric Distribution to Vector: Constructing Data Representation via
Broad-Scale Discrepancies [15.40538348604094]
本稿では,各データに対するベクトル表現に分布特性を抽出するために, $mathbfMetricDistribution2vec$ という新しい埋め込み方式を提案する。
本研究では,広範囲な実世界構造グラフデータセット上での教師付き予測タスクにおける表現法の適用と有効性を示す。
論文 参考訳(メタデータ) (2022-10-02T03:18:30Z) - Adaptive Local-Component-aware Graph Convolutional Network for One-shot
Skeleton-based Action Recognition [54.23513799338309]
骨格に基づく行動認識のための適応的局所成分認識グラフ畳み込みネットワークを提案する。
我々の手法はグローバルな埋め込みよりも強力な表現を提供し、我々のモデルが最先端に到達するのに役立ちます。
論文 参考訳(メタデータ) (2022-09-21T02:33:07Z) - Learning from Temporal Spatial Cubism for Cross-Dataset Skeleton-based
Action Recognition [88.34182299496074]
アクションラベルはソースデータセットでのみ利用可能だが、トレーニング段階のターゲットデータセットでは利用できない。
我々は,2つの骨格に基づく行動データセット間の領域シフトを低減するために,自己スーパービジョン方式を利用する。
時間的セグメントや人体部分のセグメンテーションとパーフォーミングにより、我々は2つの自己教師あり学習分類タスクを設計する。
論文 参考訳(メタデータ) (2022-07-17T07:05:39Z) - Human Activity Recognition using Attribute-Based Neural Networks and
Context Information [61.67246055629366]
手作業におけるウェアラブルセンサデータから人間の活動認識(HAR)を考察する。
我々は、コンテキスト情報をディープニューラルネットワークベースのHARシステムに体系的に組み込む方法を示す。
提案したアーキテクチャは,最先端手法と比較してHAR性能が向上することを示す。
論文 参考訳(メタデータ) (2021-10-28T06:08:25Z) - Modeling long-term interactions to enhance action recognition [81.09859029964323]
本稿では,フレームレベルと時間レベルの両方でオブジェクト間の相互作用のセマンティクスを利用する,エゴセントリックなビデオのアンダースタンドアクションに対する新しいアプローチを提案する。
ユーザの手とほぼ対応するプライマリ領域と、相互作用するオブジェクトに対応する可能性のあるセカンダリ領域のセットを入力として、領域ベースのアプローチを使用する。
提案手法は, 標準ベンチマークの動作認識において, 最先端技術よりも優れている。
論文 参考訳(メタデータ) (2021-04-23T10:08:15Z) - "What's This?" -- Learning to Segment Unknown Objects from Manipulation
Sequences [27.915309216800125]
本稿では,ロボットマニピュレータを用いた自己教師型把握対象セグメンテーションのための新しいフレームワークを提案する。
本稿では,モーションキューとセマンティック知識を共同で組み込んだ,エンドツーエンドのトレーニング可能な単一アーキテクチャを提案する。
我々の手法は、運動ロボットや3Dオブジェクトモデルの視覚的登録にも、正確な手眼の校正や追加センサーデータにも依存しない。
論文 参考訳(メタデータ) (2020-11-06T10:55:28Z) - Pose And Joint-Aware Action Recognition [87.4780883700755]
本稿では,まず,共有動作エンコーダを用いて各関節の動作特徴を別々に抽出する,関節に基づく動作認識の新しいモデルを提案する。
私たちのジョイントセレクタモジュールは、そのタスクの最も識別性の高いジョイントを選択するために、ジョイント情報を再重み付けします。
JHMDB, HMDB, Charades, AVA アクション認識データセットにおける最先端のジョイントベースアプローチに対する大きな改善点を示す。
論文 参考訳(メタデータ) (2020-10-16T04:43:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。