論文の概要: Online Micro-gesture Recognition Using Data Augmentation and Spatial-Temporal Attention
- arxiv url: http://arxiv.org/abs/2507.09512v1
- Date: Sun, 13 Jul 2025 06:38:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-15 18:48:23.372776
- Title: Online Micro-gesture Recognition Using Data Augmentation and Spatial-Temporal Attention
- Title(参考訳): データ拡張と空間的時間的注意を用いたオンラインマイクロ位置認識
- Authors: Pengyu Liu, Kun Li, Fei Wang, Yanyan Wei, Junhui She, Dan Guo,
- Abstract要約: 我々は,IJCAI 2025 MiGA Challengeのマイクロジェスチャオンライン認識トラックに対して,我々のチームが開発した最新のソリューションであるHFUT-VUTを紹介する。
我々の解はF1スコア38.03を達成し、前回の最先端を37.9%上回った。
- 参考スコア(独自算出の注目度): 19.30966685514969
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we introduce the latest solution developed by our team, HFUT-VUT, for the Micro-gesture Online Recognition track of the IJCAI 2025 MiGA Challenge. The Micro-gesture Online Recognition task is a highly challenging problem that aims to locate the temporal positions and recognize the categories of multiple micro-gesture instances in untrimmed videos. Compared to traditional temporal action detection, this task places greater emphasis on distinguishing between micro-gesture categories and precisely identifying the start and end times of each instance. Moreover, micro-gestures are typically spontaneous human actions, with greater differences than those found in other human actions. To address these challenges, we propose hand-crafted data augmentation and spatial-temporal attention to enhance the model's ability to classify and localize micro-gestures more accurately. Our solution achieved an F1 score of 38.03, outperforming the previous state-of-the-art by 37.9%. As a result, our method ranked first in the Micro-gesture Online Recognition track.
- Abstract(参考訳): 本稿では,IJCAI 2025 MiGA Challengeのマイクロジェスチャオンライン認識トラックに対して,我々のチームが開発した最新のソリューションであるHFUT-VUTを紹介する。
Micro-gesture Online Recognition taskは、時間的位置の特定と、トリミングされていないビデオにおける複数のmicro-gestureインスタンスのカテゴリ認識を目的とした、非常に困難な問題である。
従来の時間的行動検出と比較して、このタスクは、マイクロジェスチャーのカテゴリを区別し、各インスタンスの開始時刻と終了時刻を正確に識別することに重点を置いている。
さらに、マイクロ妊娠は典型的には自発的な人間の行動であり、他の人間の行動よりも大きな違いがある。
これらの課題に対処するため,我々は,手作りデータ拡張と時空間注意法を提案し,より正確にマイクロジェスチャーを分類・ローカライズするモデルの能力を高める。
我々の解はF1スコア38.03を達成し、前回の最先端を37.9%上回った。
その結果,本手法はMicro-gesture Online Recognition trackで第1位となった。
関連論文リスト
- Prototype Learning for Micro-gesture Classification [47.92089840320192]
我々は,IJCAI 2024におけるMiGAチャレンジにおいて,マイクロ位置分類のためのHFUT-VUTの開発したソリューションを紹介した。
マイクロジェスチャー分類タスクのタスクは、より微細で微妙な身体の動きに焦点を当てたビデオクリップのカテゴリを認識することである。
我々は、MG特徴の識別能力を向上させるために、2つの革新的なモジュール、すなわち、クロスモーダル融合モジュールと原型精製モジュールを利用する。
論文 参考訳(メタデータ) (2024-08-06T10:56:53Z) - Harnessing Temporal Causality for Advanced Temporal Action Detection [53.654457142657236]
本稿では,因果的注意と因果的マンバを組み合わせたCausalTADを提案する。
Ego4D Challenge 2024では,EPIC-Kitchens Challenge 2024では行動認識,行動検出,音声によるインタラクション検出トラックで1位,Ego4D Challenge 2024ではMoment Queriesトラックで1位にランクインした。
論文 参考訳(メタデータ) (2024-07-25T06:03:02Z) - Micro-gesture Online Recognition using Learnable Query Points [21.953416151456256]
本稿では,IJCAI 2024におけるMiGAチャレンジにおいて,我々のチームであるHFUT-VUTのマイクロジェスチャーオンライン認識トラックに対するソリューションを簡潔に紹介する。
Micro-gesture Online Recognitionタスクでは、ビデオクリップ内のカテゴリを特定し、micro-gestureの開始時刻と終了時刻を特定する。
弊社のソリューションは、Micro-gesture Online Recognition trackの2位にランクインしている。
論文 参考訳(メタデータ) (2024-07-05T13:25:32Z) - Adaptive Temporal Motion Guided Graph Convolution Network for Micro-expression Recognition [48.21696443824074]
ATM-GCN(Adaptive Temporal Motion Guided Graph Convolution Network)と呼ばれる,マイクロ圧縮認識のための新しいフレームワークを提案する。
本フレームワークは,クリップ全体のフレーム間の時間的依存関係の把握に優れ,クリップレベルでのマイクロ圧縮認識が向上する。
論文 参考訳(メタデータ) (2024-06-13T10:57:24Z) - Identity-free Artificial Emotional Intelligence via Micro-Gesture Understanding [21.94739567923136]
我々は、人体言語の特殊グループ、マイクロ・ジェスチャ(MG)に焦点を当てる。
MGは、意図的な行動ではなく、内的感情によって引き起こされる意図しない行動である。
本研究は,マイクロ・ジェスチャの微妙な空間的および短時間の時間的特性を考慮し,反復性を伴う様々な拡張戦略を探求し,より適切な拡張方法を決定する。
論文 参考訳(メタデータ) (2024-05-21T21:16:55Z) - Micro-Expression Recognition Based on Attribute Information Embedding
and Cross-modal Contrastive Learning [22.525295392858293]
本稿では,属性情報埋め込みとクロスモーダルコントラスト学習に基づくマイクロ圧縮認識手法を提案する。
我々はCASME II と MMEW データベースで広範な実験を行い、精度はそれぞれ77.82% と 71.04% である。
論文 参考訳(メタデータ) (2022-05-29T12:28:10Z) - Video-based Facial Micro-Expression Analysis: A Survey of Datasets,
Features and Algorithms [52.58031087639394]
マイクロ表現は不随意かつ過渡的な表情である。
嘘検出や犯罪検出など、幅広い応用において重要な情報を提供することができる。
マイクロ表現は過渡的で低強度であるため、検出と認識は困難であり、専門家の経験に大きく依存する。
論文 参考訳(メタデータ) (2022-01-30T05:14:13Z) - Short and Long Range Relation Based Spatio-Temporal Transformer for
Micro-Expression Recognition [61.374467942519374]
我々は,マイクロ圧縮認識のための最初の純粋トランスフォーマーベースアプローチである,新しいアテンポ的トランスフォーマーアーキテクチャを提案する。
空間パターンを学習する空間エンコーダと、時間的分析のための時間的次元分類と、ヘッドとを備える。
広範に使用されている3つの自発的マイクロ圧縮データセットに対する総合的な評価は,提案手法が一貫して芸術の状態を上回っていることを示している。
論文 参考訳(メタデータ) (2021-12-10T22:10:31Z) - Micro-expression spotting: A new benchmark [74.69928316848866]
マイクロ表現(ME)は、人々が本当の感情を隠そうとしたり、感情を隠そうとするときに起こる、簡潔で不随意の表情である。
コンピュータビジョンの分野では、MEの研究はスポッティングと認識という2つの主要なタスクに分けられる。
本稿ではSMIC-Eデータベースの拡張,すなわちSMIC-E-Longデータベースを紹介する。
論文 参考訳(メタデータ) (2020-07-24T09:18:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。