論文の概要: Affective Movement Generation using Laban Effort and Shape and Hidden
Markov Models
- arxiv url: http://arxiv.org/abs/2006.06071v1
- Date: Wed, 10 Jun 2020 21:24:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-23 06:43:36.196433
- Title: Affective Movement Generation using Laban Effort and Shape and Hidden
Markov Models
- Title(参考訳): ラガンエフォートと形状と隠れマルコフモデルを用いた影響運動生成
- Authors: Ali Samadani, Rob Gorbet, Dana Kulic
- Abstract要約: 本稿では,1)ラベル移動解析(LMA)と2)隠れマルコフモデリングという2つの運動抽象化を用いた自動感情運動生成手法を提案する。
LMAは運動の運動的特徴と表現的特徴を抽象的に表現するための体系的なツールを提供する。
特定された動作のHMM抽象化を取得し、所望の動作経路を用いて、対象の感情を伝達する新たな動きを生成する。
評価された自動認識モデルとユーザスタディを用いて、認識可能な目標感情を持つ動きを生成するための提案手法の有効性を評価する。
- 参考スコア(独自算出の注目度): 6.181642248900806
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Body movements are an important communication medium through which affective
states can be discerned. Movements that convey affect can also give machines
life-like attributes and help to create a more engaging human-machine
interaction. This paper presents an approach for automatic affective movement
generation that makes use of two movement abstractions: 1) Laban movement
analysis (LMA), and 2) hidden Markov modeling. The LMA provides a systematic
tool for an abstract representation of the kinematic and expressive
characteristics of movements. Given a desired motion path on which a target
emotion is to be overlaid, the proposed approach searches a labeled dataset in
the LMA Effort and Shape space for similar movements to the desired motion path
that convey the target emotion. An HMM abstraction of the identified movements
is obtained and used with the desired motion path to generate a novel movement
that is a modulated version of the desired motion path that conveys the target
emotion. The extent of modulation can be varied, trading-off between kinematic
and affective constraints in the generated movement. The proposed approach is
tested using a full-body movement dataset. The efficacy of the proposed
approach in generating movements with recognizable target emotions is assessed
using a validated automatic recognition model and a user study. The target
emotions were correctly recognized from the generated movements at a rate of
72% using the recognition model. Furthermore, participants in the user study
were able to correctly perceive the target emotions from a sample of generated
movements, although some cases of confusion were also observed.
- Abstract(参考訳): 身体運動は、感情状態を識別できる重要なコミュニケーション媒体である。
影響を伝達する動きは、機械に生命のような特性を与え、より魅力的な人間と機械の相互作用を生み出すのに役立つ。
本稿では,2つの動作抽象化を利用した自動感情運動生成手法を提案する。
1)laban movement analysis (lma) および
2)隠れマルコフモデリング。
LMAは運動の運動的および表現的特徴を抽象的に表現するための体系的なツールを提供する。
対象の感情がオーバーレイされる所望の運動経路を前提として,LMAエフォートと形状空間のラベル付きデータセットを探索し,対象の感情を伝達する所望の運動経路と類似した動きを求める。
特定された動きのhmm抽象化を求め、所望の動作経路を用いて、目標の感情を伝達する所望の動作経路の変調版である新規な動きを生成する。
変調の程度は変化し、発生した動きにおける運動的制約と感情的制約のトレードオフとなる。
提案手法は全身運動データセットを用いて検証する。
目標感情を認識可能な運動生成における提案手法の有効性を検証された自動認識モデルとユーザスタディを用いて評価した。
対象感情は, 認識モデルを用いて72%の割合で生成した運動から正しく認識された。
さらに,ユーザ研究の参加者は,生成した動きのサンプルからターゲットの感情を正しく知覚することができたが,混乱の事例も見られた。
関連論文リスト
- MotionGPT-2: A General-Purpose Motion-Language Model for Motion Generation and Understanding [76.30210465222218]
MotionGPT-2は、MLMLM(Large Motion-Language Model)である。
LLM(Large Language Models)によるマルチモーダル制御をサポートしている。
難易度の高い3次元全体運動生成タスクに高い適応性を持つ。
論文 参考訳(メタデータ) (2024-10-29T05:25:34Z) - Semantics-aware Motion Retargeting with Vision-Language Models [19.53696208117539]
本稿では,意味ある動作意味論を抽出し,維持するために,視覚言語モデルを利用したセマンティックス・アウェア・モーション・リターゲティング(SMT)手法を提案する。
我々は3次元動作のレンダリングに微分可能モジュールを使用し、視覚言語モデルに入力し、抽出したセマンティック埋め込みを整合させることにより、高レベルなモーションセマンティクスを動作プロセスに組み込む。
微粒な動きの詳細と高レベルのセマンティクスの保存を確保するため、スケルトンを意識した事前学習とセマンティクスと幾何制約による微調整からなる2段階パイプラインを採用する。
論文 参考訳(メタデータ) (2023-12-04T15:23:49Z) - MoEmo Vision Transformer: Integrating Cross-Attention and Movement
Vectors in 3D Pose Estimation for HRI Emotion Detection [4.757210144179483]
ロボットシステム内での人間の感情検出のためのクロスアテンション・ビジョン・トランスフォーマ(ViT)であるMoEmo(Motion to Emotion)を紹介する。
我々は,移動ベクトルと環境コンテキストを結合表現に組み合わせ,感情推定を導出するクロスアテンション融合モデルを実装した。
我々はMoEmoシステムをトレーニングし、動きとコンテキストを共同で分析し、現在の最先端よりも優れた感情を検出する。
論文 参考訳(メタデータ) (2023-10-15T06:52:15Z) - Priority-Centric Human Motion Generation in Discrete Latent Space [59.401128190423535]
テキスト・ツー・モーション生成のための優先中心運動離散拡散モデル(M2DM)を提案する。
M2DMは、コード崩壊に対処するために、グローバルな自己注意機構と正規化用語を組み込んでいる。
また、各動きトークンの重要度から決定される革新的なノイズスケジュールを用いた動き離散拡散モデルを提案する。
論文 参考訳(メタデータ) (2023-08-28T10:40:16Z) - MotionTrack: Learning Motion Predictor for Multiple Object Tracking [68.68339102749358]
本研究では,学習可能なモーション予測器を中心に,新しいモーショントラッカーであるMotionTrackを紹介する。
実験結果から、MotionTrackはDancetrackやSportsMOTといったデータセット上での最先端のパフォーマンスを示す。
論文 参考訳(メタデータ) (2023-06-05T04:24:11Z) - Human MotionFormer: Transferring Human Motions with Vision Transformers [73.48118882676276]
人間の動き伝達は、運動合成のためにターゲットの動的人物からソースの静的人物に動きを伝達することを目的としている。
本稿では,世界的および地域的認識を活用して,大規模かつ微妙な動きマッチングを捉える階層型ViTフレームワークであるHuman MotionFormerを提案する。
我々のHuman MotionFormerは、定性的かつ定量的に新しい最先端のパフォーマンスをセットしている。
論文 参考訳(メタデータ) (2023-02-22T11:42:44Z) - Motion Gait: Gait Recognition via Motion Excitation [5.559482051571756]
本研究では,時間的特徴をガイドする動作励起モジュール (MEM) を提案する。
MEMはフレームと間隔の違い情報を学習し、時間変動の表現を得る。
本研究では,人間の水平部分の空間的時間的表現に基づいて独立に学習するファイン・フィーチャー・エクストラクタ(EFF)を提案する。
論文 参考訳(メタデータ) (2022-06-22T13:47:14Z) - Property-Aware Robot Object Manipulation: a Generative Approach [57.70237375696411]
本研究では,操作対象の隠れた特性に適応したロボットの動きを生成する方法に焦点を当てた。
本稿では,ジェネレーティブ・アドバイサル・ネットワークを利用して,オブジェクトの特性に忠実な新しいアクションを合成する可能性について検討する。
以上の結果から,ジェネレーティブ・アドバイサル・ネットは,新規かつ有意義な輸送行動を生み出すための強力なツールとなる可能性が示唆された。
論文 参考訳(メタデータ) (2021-06-08T14:15:36Z) - Segmentation and Classification of EMG Time-Series During Reach-to-Grasp
Motion [10.388787606334745]
動的アーム/ハンド姿勢の変動を伴う連続把握動作から発生するEMG信号を分類するためのフレームワークを提案する。
提案されたフレームワークはリアルタイムに評価され、時間とともに精度が変化した。
論文 参考訳(メタデータ) (2021-04-19T20:41:06Z) - AMP: Adversarial Motion Priors for Stylized Physics-Based Character
Control [145.61135774698002]
我々は,与えられたシナリオで追跡するキャラクタの動作を選択するための完全自動化手法を提案する。
キャラクタが実行するべきハイレベルなタスク目標は、比較的単純な報酬関数によって指定できる。
キャラクタの動作の低レベルスタイルは、非構造化モーションクリップのデータセットによって指定できる。
本システムでは,最先端のトラッキング技術に匹敵する高品質な動作を生成する。
論文 参考訳(メタデータ) (2021-04-05T22:43:14Z) - Self-supervised Motion Learning from Static Images [36.85209332144106]
Motion from Static Images (MoSI) はモーション情報をエンコードすることを学ぶ。
MoSIは、下流のデータセットを微調整することなく、大きな動きを持つ領域を発見することができる。
下流のデータセットを微調整することなく、MoSIが大きな動きを持つ領域を発見できることを実証します。
論文 参考訳(メタデータ) (2021-04-01T03:55:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。