論文の概要: LingoMotion: An Interpretable and Unambiguous Symbolic Representation for Human Motion
- arxiv url: http://arxiv.org/abs/2603.13578v1
- Date: Fri, 13 Mar 2026 20:35:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:35.283469
- Title: LingoMotion: An Interpretable and Unambiguous Symbolic Representation for Human Motion
- Title(参考訳): LingoMotion:人間の動作に対する解釈可能で曖昧な記号表現
- Authors: Yao Zhang, Zhuchenyang Liu, Yu Xiao,
- Abstract要約: 人間の動作に対する解釈可能かつ曖昧な記号表現を容易にする動き言語LingoMotionを提案する。
我々はLingoMotionの概念設計を紹介し、関節角に基づく動きアルファベットの定義、単語やフレーズを形成する形態、より複雑な人間の活動を記述するための構文について紹介する。
大規模な動きデータセットMotion-Xを用いた動きアルファベットの実装と評価を含む予備的な結果は、動き表現の忠実度を示す。
- 参考スコア(独自算出の注目度): 8.720698253117837
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Existing representations for human motion, such as MotionGPT, often operate as black-box latent vectors with limited interpretability and build on joint positions which can cause ambiguity. Inspired by the hierarchical structure of natural languages - from letters to words, phrases, and sentences - we propose LingoMotion, a motion language that facilitates interpretable and unambiguous symbolic representation for both simple and complex human motion. In this paper, we introduce the concept design of LingoMotion, including the definitions of motion alphabet based on joint angles, the morphology for forming words and phrases to describe simple actions like walking and their attributes like speed and scale, as well as the syntax for describing more complex human activities with sequences of words and phrases. The preliminary results, including the implementation and evaluation of motion alphabet using a large-scale motion dataset Motion-X, demonstrate the high fidelity of motion representation.
- Abstract(参考訳): MotionGPTのような既存の人間の動きの表現は、しばしばブラックボックスの潜伏ベクトルとして機能し、解釈可能性に制限があり、あいまいさを引き起こす可能性のある関節の位置の上に構築される。
自然言語の階層構造(文字から語、句、文)に着想を得たLingoMotionを提案する。
本稿では,LingoMotionの概念として,関節角度に基づく動作アルファベットの定義,歩行などの単純な動作を記述するための単語やフレーズの形成形態,スピードやスケールといった特性,さらには単語やフレーズのシーケンスでより複雑な人間の活動を記述するための構文などを紹介する。
大規模な動きデータセットMotion-Xを用いた動きアルファベットの実装と評価を含む予備的な結果は、動き表現の忠実度が高いことを示す。
関連論文リスト
- LaMoGen: Language to Motion Generation Through LLM-Guided Symbolic Inference [7.101824215756715]
本稿では,ラパノテーションシステムの適応と拡張により発達した動き表現であるラパノテーション(LanLite)を紹介する。
ブラックボックスのテキストモーション埋め込みとは異なり、LabanLiteは各原子体のアクションをテキストテンプレートと組み合わせた個別のLabanシンボルとしてエンコードする。
ラモーゲン(LaMoGen, Text-to-LabanLite-to-Motion Generation)は, 大規模言語モデルにおいて, 記号的推論による動き列の生成を可能にするフレームワークである。
論文 参考訳(メタデータ) (2026-03-12T06:58:33Z) - Training-free Motion Factorization for Compositional Video Generation [57.819757612370374]
複雑な動きを3つの主要カテゴリに分解する運動因子化フレームワークを提案する。
本フレームワークは,実世界のベンチマークにおいて,動作合成における印象的な性能を実現する。
論文 参考訳(メタデータ) (2026-03-10T02:27:48Z) - MIBURI: Towards Expressive Interactive Gesture Synthesis [62.45332399212876]
Embodied Conversational Agents (ECA) は、音声、ジェスチャー、表情を通じて人間の対面相互作用をエミュレートすることを目的としている。
既存のECAの解は、人間のような相互作用には適さない剛性で低多様性の運動を生み出す。
MIBURIは,リアルタイム音声対話と同期した表現力のあるフルボディジェスチャーと表情を生成するための,最初のオンライン因果的フレームワークである。
論文 参考訳(メタデータ) (2026-03-03T18:59:51Z) - Motion Generation from Fine-grained Textual Descriptions [29.033358642532722]
我々は,ファインヒューマンML3Dという微細なテキスト記述を専門とする大規模言語移動データセットを構築した。
新しいテキスト2モーションモデルであるFineMotionDiffuseを設計し、微細なテキスト情報をフル活用する。
FineMotionDiffuseはFinHumanML3Dで訓練し,FIDを0.38の差で改善した。
論文 参考訳(メタデータ) (2024-03-20T11:38:30Z) - MotionScript: Natural Language Descriptions for Expressive 3D Human Motions [6.710007544943157]
人間の3次元動作の詳細な自然言語記述を生成するための新しいフレームワークであるMotionScriptを紹介した。
MotionScriptは、人間の動きの完全な複雑さを捉える、きめ細かい構造化された記述を提供する。
MotionScriptは、テキスト・トゥ・モーションモデルのための記述ツールとトレーニングリソースの両方として機能する。
論文 参考訳(メタデータ) (2023-12-19T22:33:17Z) - MotionGPT: Human Motion as a Foreign Language [47.21648303282788]
人間の動きは人間の言語に似た意味的な結合を示し、しばしば身体言語の一種として認識される。
大規模モーションモデルで言語データを融合することにより、動き言語事前学習は、動きに関連したタスクのパフォーマンスを向上させることができる。
我々は,複数の動作関連タスクを処理するために,統一的で汎用的でユーザフレンドリな動作言語モデルであるMotionGPTを提案する。
論文 参考訳(メタデータ) (2023-06-26T15:53:02Z) - Freeform Body Motion Generation from Speech [53.50388964591343]
音声から体の動きを生成することは、音声から体の動きへの非決定論的マッピングのために本質的に困難である。
2ストリームアーキテクチャを組み込んだ新しいフリーフォームモーション生成モデル(FreeMo)を提案する。
実験は、いくつかのベースラインに対して優れたパフォーマンスを示す。
論文 参考訳(メタデータ) (2022-03-04T13:03:22Z) - Synthesis of Compositional Animations from Textual Descriptions [54.85920052559239]
「どんなに非構造的で複雑で、文を作りながら、それからもっともらしい動きを生成できるのか。」
「映画の脚本から3Dキャラクタをアニメーションしたり、ロボットに何をしたいのかを伝えるだけで動かせるのか?」
論文 参考訳(メタデータ) (2021-03-26T18:23:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。