論文の概要: Including Semantic Information via Word Embeddings for Skeleton-based Action Recognition
- arxiv url: http://arxiv.org/abs/2506.18721v1
- Date: Mon, 23 Jun 2025 14:57:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-24 19:06:37.038831
- Title: Including Semantic Information via Word Embeddings for Skeleton-based Action Recognition
- Title(参考訳): 骨格に基づく行動認識のための単語埋め込みによる意味情報を含む
- Authors: Dustin Aganian, Erik Franze, Markus Eisenbach, Horst-Michael Gross,
- Abstract要約: 本稿では,単語の埋め込みを利用して意味情報をエンコードすることで,入力表現を豊かにするスケルトンに基づく行動認識手法を提案する。
本手法は, ワンホット符号化を意味ボリュームに置き換えることで, モデルが関節と物体間の有意義な関係を捉えることを可能にする。
- 参考スコア(独自算出の注目度): 7.441242294426765
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Effective human action recognition is widely used for cobots in Industry 4.0 to assist in assembly tasks. However, conventional skeleton-based methods often lose keypoint semantics, limiting their effectiveness in complex interactions. In this work, we introduce a novel approach to skeleton-based action recognition that enriches input representations by leveraging word embeddings to encode semantic information. Our method replaces one-hot encodings with semantic volumes, enabling the model to capture meaningful relationships between joints and objects. Through extensive experiments on multiple assembly datasets, we demonstrate that our approach significantly improves classification performance, and enhances generalization capabilities by simultaneously supporting different skeleton types and object classes. Our findings highlight the potential of incorporating semantic information to enhance skeleton-based action recognition in dynamic and diverse environments.
- Abstract(参考訳): 効果的な人間の行動認識は、産業4.0のコボットが組み立て作業を支援するために広く使われている。
しかし、従来のスケルトンに基づく手法はしばしばキーポイントのセマンティクスを失い、複雑な相互作用における有効性を制限している。
本研究では,単語の埋め込みを利用して意味情報をエンコードすることで,入力表現を豊かにするスケルトンに基づく行動認識手法を提案する。
本手法は, ワンホット符号化を意味ボリュームに置き換えることで, モデルが関節と物体間の有意義な関係を捉えることを可能にする。
複数の組立データセットに関する広範な実験を通じて,本手法は分類性能を著しく向上し,異なるスケルトンタイプとオブジェクトクラスを同時にサポートすることによって一般化能力を向上させることを実証した。
本研究は, 動的かつ多様な環境において, 骨格に基づく行動認識を強化するために, 意味情報を組み込むことの可能性を強調した。
関連論文リスト
- Visual and Semantic Prompt Collaboration for Generalized Zero-Shot Learning [58.73625654718187]
一般化されたゼロショット学習は、異なるクラス間で共有される意味情報の助けを借りて、目に見えないクラスと見えないクラスの両方を認識することを目的としている。
既存のアプローチでは、視覚的バックボーンをルッククラスのデータで微調整し、セマンティックな視覚的特徴を得る。
本稿では,効率的な特徴適応のためのプロンプトチューニング技術を活用した,視覚的・意味的プロンプト協調フレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-29T10:17:57Z) - Hierarchical Banzhaf Interaction for General Video-Language Representation Learning [60.44337740854767]
マルチモーダル表現学習は人工知能領域において重要な役割を担っている。
本稿では,多変量協調ゲーム理論を用いて,ビデオテキストをゲームプレイヤーとしてモデル化する手法を提案する。
元の構造をフレキシブルなエンコーダ・デコーダ・フレームワークに拡張し、モデルが様々な下流タスクに適応できるようにする。
論文 参考訳(メタデータ) (2024-12-30T14:09:15Z) - An Information Compensation Framework for Zero-Shot Skeleton-based Action Recognition [49.45660055499103]
ゼロショットの人間の骨格に基づく行動認識は、トレーニング中に見られるカテゴリ外の行動を認識するモデルを構築することを目的としている。
従来の研究では、シーケンスの視覚的空間分布と意味的空間分布の整合性に焦点が当てられていた。
強固で頑健な表現を得るために,新たな損失関数サンプリング手法を提案する。
論文 参考訳(メタデータ) (2024-06-02T06:53:01Z) - Towards Zero-shot Human-Object Interaction Detection via Vision-Language
Integration [14.678931157058363]
本稿では,ゼロショットHOI検出を改善するために,視覚言語モデルの知識を効果的に統合する新しいフレームワーク「KI2HOI」を提案する。
より包括的な視覚表現を生成するための効果的な付加的自己認識機構を開発する。
我々のモデルは、様々なゼロショットおよびフル教師付き設定において、以前の手法よりも優れています。
論文 参考訳(メタデータ) (2024-03-12T02:07:23Z) - Knowledge-Enhanced Hierarchical Information Correlation Learning for
Multi-Modal Rumor Detection [82.94413676131545]
マルチモーダルなうわさ検出のための知識強化型階層型情報相関学習手法(KhiCL)を提案する。
KhiCLは異質な一様性特徴を共通特徴空間に伝達するために、クロスモーダルな関節辞書を利用する。
画像やテキストから視覚的およびテキスト的実体を抽出し、知識関連推論戦略を設計する。
論文 参考訳(メタデータ) (2023-06-28T06:08:20Z) - How Object Information Improves Skeleton-based Human Action Recognition
in Assembly Tasks [12.349172146831506]
本稿では,物体情報を骨格に基づく行動認識に組み込む新しい手法を提案する。
我々は、物体中心をさらなる骨格関節として扱うことにより、最先端の2つの方法を強化する。
我々の研究は、組み立て作業における人間の行動認識のための骨格関節と物体情報を組み合わせることの利点に光を当てている。
論文 参考訳(メタデータ) (2023-06-09T12:18:14Z) - Knowledge Augmented Relation Inference for Group Activity Recognition [14.240856072486666]
グループ活動認識のための知識強調手法を提案する。
本研究では,この知識を効果的に活用し,個々の表現を改善する新しい知識拡張関係推論フレームワークを開発する。
論文 参考訳(メタデータ) (2023-02-28T06:59:05Z) - Skeleton-Based Mutually Assisted Interacted Object Localization and
Human Action Recognition [111.87412719773889]
本研究では,骨格データに基づく「相互作用対象の局所化」と「人間の行動認識」のための共同学習フレームワークを提案する。
本手法は,人間の行動認識のための最先端の手法を用いて,最高の,あるいは競争的な性能を実現する。
論文 参考訳(メタデータ) (2021-10-28T10:09:34Z) - Skeleton-Aware Networks for Deep Motion Retargeting [83.65593033474384]
骨格間のデータ駆動動作のための新しいディープラーニングフレームワークを提案する。
我々の手法は、トレーニングセットの運動間の明確なペアリングを必要とせずに、再ターゲティングの仕方を学ぶ。
論文 参考訳(メタデータ) (2020-05-12T12:51:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。