論文の概要: Motion Matters: Motion-guided Modulation Network for Skeleton-based Micro-Action Recognition
- arxiv url: http://arxiv.org/abs/2507.21977v1
- Date: Tue, 29 Jul 2025 16:27:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-30 17:08:56.667073
- Title: Motion Matters: Motion-guided Modulation Network for Skeleton-based Micro-Action Recognition
- Title(参考訳): 運動の諸問題:骨格型マイクロアクション認識のための運動誘導変調ネットワーク
- Authors: Jihao Gu, Kun Li, Fei Wang, Yanyan Wei, Zhiliang Wu, Hehe Fan, Meng Wang,
- Abstract要約: マイクロ・アクション(英: Micro-Actions、MA)は、社会的相互作用における非言語コミュニケーションの重要な形態である。
マイクロアクション認識における既存の手法は、しばしばMAの固有の微妙な変化を見落としている。
本稿では,微妙な動きの手がかりを暗黙的に捉え,変調する新しい動き誘導変調ネットワーク(MMN)を提案する。
- 参考スコア(独自算出の注目度): 26.997350207742034
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Micro-Actions (MAs) are an important form of non-verbal communication in social interactions, with potential applications in human emotional analysis. However, existing methods in Micro-Action Recognition often overlook the inherent subtle changes in MAs, which limits the accuracy of distinguishing MAs with subtle changes. To address this issue, we present a novel Motion-guided Modulation Network (MMN) that implicitly captures and modulates subtle motion cues to enhance spatial-temporal representation learning. Specifically, we introduce a Motion-guided Skeletal Modulation module (MSM) to inject motion cues at the skeletal level, acting as a control signal to guide spatial representation modeling. In parallel, we design a Motion-guided Temporal Modulation module (MTM) to incorporate motion information at the frame level, facilitating the modeling of holistic motion patterns in micro-actions. Finally, we propose a motion consistency learning strategy to aggregate the motion cues from multi-scale features for micro-action classification. Experimental results on the Micro-Action 52 and iMiGUE datasets demonstrate that MMN achieves state-of-the-art performance in skeleton-based micro-action recognition, underscoring the importance of explicitly modeling subtle motion cues. The code will be available at https://github.com/momiji-bit/MMN.
- Abstract(参考訳): マイクロ・アクション(英: Micro-Actions、MA)は、社会的相互作用における非言語コミュニケーションの重要な形態であり、人間の感情分析に応用される可能性がある。
しかし,MAの微妙な変化を見落とし,MAを微妙な変化で識別する精度を制限している場合が多い。
この問題に対処するために,空間的時間的表現学習を強化するために,微妙な動きキューを暗黙的にキャプチャし,変調する新しい動き誘導変調ネットワーク(MMN)を提案する。
具体的には、運動誘導骨格変調モジュール(MSM)を導入し、骨格レベルで運動キューを注入し、空間表現モデリングを誘導するための制御信号として機能する。
並行して,運動誘導型時間変調モジュール(MTM)を設計し,運動情報をフレームレベルで組み込むことにより,マイクロアクションにおける全体像パターンのモデリングを容易にする。
最後に、マイクロアクション分類のためのマルチスケール特徴から動きキューを集約する動き一貫性学習戦略を提案する。
Micro-Action 52とiMiGUEデータセットの実験結果は、MMNが骨格に基づくマイクロアクション認識において最先端のパフォーマンスを達成することを示し、微妙な動きキューを明示的にモデル化することの重要性を強調している。
コードはhttps://github.com/momiji-bit/MMN.comから入手できる。
関連論文リスト
- MELLM: Exploring LLM-Powered Micro-Expression Understanding Enhanced by Subtle Motion Perception [47.80768014770871]
マイクロ圧縮大言語モデル(MELLM)を提案する。
MLLMの強い推論能力を備えた微妙な顔の動き知覚戦略を取り入れている。
我々のモデルは、マイクロ圧縮理解(MEU)において優れた堅牢性と一般化能力を示す。
論文 参考訳(メタデータ) (2025-05-11T15:08:23Z) - AMMSM: Adaptive Motion Magnification and Sparse Mamba for Micro-Expression Recognition [7.084377962617903]
本稿では,Adaptive Motion Magnification and Sparse Mambaというマルチタスク学習フレームワークを提案する。
この枠組みは, 自己監督型微妙な動きの倍率化により, マイクロ表現の精度を高めることを目的としている。
空間選択の倍率係数と空間選択の余剰比を最適化するために進化的探索を用い、さらに性能を向上させるために微調整を行った。
論文 参考訳(メタデータ) (2025-03-31T13:17:43Z) - Pay Attention and Move Better: Harnessing Attention for Interactive Motion Generation and Training-free Editing [23.70162749652725]
我々は,注目マップを操作することで,シンプルかつ効果的な動作編集手法を多目的に開発する。
提案手法は,優れた説明性を備えた優れた生成・編集能力を有する。
論文 参考訳(メタデータ) (2024-10-24T17:59:45Z) - Spectral Motion Alignment for Video Motion Transfer using Diffusion Models [54.32923808964701]
スペクトル運動アライメント(英: Spectral Motion Alignment、SMA)は、フーリエ変換とウェーブレット変換を用いて運動ベクトルを洗練・整列するフレームワークである。
SMAは周波数領域の正規化を取り入れて動きパターンを学習し、全体フレームのグローバルな動きのダイナミクスの学習を容易にする。
大規模な実験は、様々なビデオカスタマイズフレームワーク間の計算効率と互換性を維持しながら、モーション転送を改善するSMAの有効性を示す。
論文 参考訳(メタデータ) (2024-03-22T14:47:18Z) - Interactive Character Control with Auto-Regressive Motion Diffusion Models [18.727066177880708]
リアルタイム動作合成のためのA-MDM(Auto-Regressive Motion Diffusion Model)を提案する。
我々の条件拡散モデルは初期ポーズを入力とし、前者のフレームに条件付けられた連続した動きフレームを自動回帰的に生成する。
本稿では,タスク指向サンプリング,インペインティング,階層的強化学習など,対話型制御をA-MDMに組み込む一連の手法を紹介する。
論文 参考訳(メタデータ) (2023-06-01T07:48:34Z) - Unsupervised Motion Representation Learning with Capsule Autoencoders [54.81628825371412]
Motion Capsule Autoencoder (MCAE) は、2レベル階層のモーションをモデル化する。
MCAEは、新しいTrajectory20モーションデータセットと、様々な現実世界の骨格に基づく人間のアクションデータセットで評価されている。
論文 参考訳(メタデータ) (2021-10-01T16:52:03Z) - Self-supervised Motion Learning from Static Images [36.85209332144106]
Motion from Static Images (MoSI) はモーション情報をエンコードすることを学ぶ。
MoSIは、下流のデータセットを微調整することなく、大きな動きを持つ領域を発見することができる。
下流のデータセットを微調整することなく、MoSIが大きな動きを持つ領域を発見できることを実証します。
論文 参考訳(メタデータ) (2021-04-01T03:55:50Z) - Learning Comprehensive Motion Representation for Action Recognition [124.65403098534266]
2d cnnベースのメソッドは効率的であるが、各フレームに同じ2d畳み込みカーネルを適用することで冗長な機能が得られる。
最近の試みは、フレーム間接続を確立しながら、時間的受容野や高いレイテンシに苦しめながら、動き情報をキャプチャしようとするものである。
チャネルワイズゲートベクトルを用いた動的情報に関連するチャネルを適応的に強調するCME(Channel-wise Motion Enhancement)モジュールを提案する。
また,近接する特徴写像の点対点類似性に応じて,重要な目標を持つ領域に焦点をあてる空間的運動強調(SME)モジュールを提案する。
論文 参考訳(メタデータ) (2021-03-23T03:06:26Z) - SMA-STN: Segmented Movement-Attending Spatiotemporal Network
forMicro-Expression Recognition [20.166205708651194]
本稿では,視覚的に視覚的に微妙な動き変化を明らかにするために,SMA-STN( segmented movement-attending network)を提案する。
CALoss II、SAMM、ShiCの3つの広く使われているベンチマークに対する大規模な実験は、提案されたSMA-STNが他の最先端手法よりも優れたMER性能を達成することを示している。
論文 参考訳(メタデータ) (2020-10-19T09:23:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。