論文の概要: MMS Player: an open source software for parametric data-driven animation of Sign Language avatars
- arxiv url: http://arxiv.org/abs/2507.16463v1
- Date: Tue, 22 Jul 2025 11:06:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-23 21:34:14.083457
- Title: MMS Player: an open source software for parametric data-driven animation of Sign Language avatars
- Title(参考訳): MMS Player:手話アバターのパラメトリックデータ駆動アニメーションのためのオープンソースソフトウェア
- Authors: Fabrizio Nunnari, Shailesh Mishra, Patrick Gebhard,
- Abstract要約: MMS-Playerは、MMS(MultiModal Signstream)と呼ばれる新しい手話表現フォーマットから手話アニメーションを合成することができる。
MMSは、記号、タイミング、および屈折の並行実行に関する情報を追加することで、光沢ベースの表現を強化する。
- 参考スコア(独自算出の注目度): 10.996215247967065
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: This paper describes the MMS-Player, an open source software able to synthesise sign language animations from a novel sign language representation format called MMS (MultiModal Signstream). The MMS enhances gloss-based representations by adding information on parallel execution of signs, timing, and inflections. The implementation consists of Python scripts for the popular Blender 3D authoring tool and can be invoked via command line or HTTP API. Animations can be rendered as videos or exported in other popular 3D animation exchange formats. The software is freely available under GPL-3.0 license at https://github.com/DFKI-SignLanguage/MMS-Player.
- Abstract(参考訳): 本稿では,MMS(MultiModal Signstream)と呼ばれる手話表現形式から手話アニメーションを合成するオープンソースソフトウェアであるMMS-Playerについて述べる。
MMSは、記号、タイミング、および屈折の並行実行に関する情報を追加することで、光沢ベースの表現を強化する。
実装は人気のあるBlender 3Dオーサリングツール用のPythonスクリプトで構成されており、コマンドラインやHTTP API経由で呼び出すことができる。
アニメーションはビデオとしてレンダリングしたり、他の人気のある3Dアニメーション交換フォーマットでエクスポートすることができる。
このソフトウェアはGPL-3.0ライセンスでhttps://github.com/DFKI-SignLanguage/MMS-Playerで無料で入手できる。
関連論文リスト
- Speak2Sign3D: A Multi-modal Pipeline for English Speech to American Sign Language Animation [0.0]
我々は、英語の音声をスムーズでリアルな3D手話アニメーションに変換する完全なパイプラインを導入する。
私たちのシステムはWhisperから始まり、話し言葉をテキストに翻訳します。
そして、MarianMT機械翻訳モデルを用いて、そのテキストをAmerican Sign Language(ASL)用語に翻訳する。
我々はSign3D-WLASLで学習した3Dキーポイントベースのモーションシステムを用いて,翻訳した光沢をアニメーション化する。
論文 参考訳(メタデータ) (2025-07-09T04:13:49Z) - PromptVFX: Text-Driven Fields for Open-World 3D Gaussian Animation [49.91188543847175]
フィールド予測タスクとして3Dアニメーションを再構成し、3Dガウスに作用する時間変化の4Dフロー場を推定するテキスト駆動フレームワークを導入する。
大規模言語モデル(LLM)と視覚言語モデル(VLM)を関数生成に活用することにより,任意のプロンプトを解釈し,色,不透明度,位置をリアルタイムで更新する。
論文 参考訳(メタデータ) (2025-06-01T17:22:59Z) - Animating the Uncaptured: Humanoid Mesh Animation with Video Diffusion Models [71.78723353724493]
ヒューマノイド文字のアニメーションは、様々なグラフィックス応用において不可欠である。
入力された静的な3次元ヒューマノイドメッシュの4次元アニメーションシーケンスを合成する手法を提案する。
論文 参考訳(メタデータ) (2025-03-20T10:00:22Z) - MoVer: Motion Verification for Motion Graphics Animations [22.492092552107803]
MoVerは、一階述語論理に基づく動作検証である。
LLMに基づく合成および検証パイプラインでMoVerをどのように利用できるかを示す。
論文 参考訳(メタデータ) (2025-02-19T02:11:41Z) - Signs as Tokens: A Retrieval-Enhanced Multilingual Sign Language Generator [55.94334001112357]
テキスト入力から3Dサインアバターを自動回帰的に生成できる多言語手話モデルSigns as Tokens(SOKE)を導入する。
単語レベルの正確な記号を提供するために,外部記号辞書を組み込んだ検索強化SLG手法を提案する。
論文 参考訳(メタデータ) (2024-11-26T18:28:09Z) - T3M: Text Guided 3D Human Motion Synthesis from Speech [8.890280315046475]
音声駆動の3Dモーション合成は、人間の音声に基づくライフライクなアニメーションを作ろうとしている。
既存のアプローチは音声のみに応答して動作生成を行い、不正確で非フレキシブルな合成結果をもたらす。
テキスト誘導型3次元人体動作合成法「textitT3M」について述べる。
論文 参考訳(メタデータ) (2024-08-23T07:37:26Z) - EvSign: Sign Language Recognition and Translation with Streaming Events [59.51655336911345]
イベントカメラは、動的手の動きを自然に知覚し、手話作業のための豊富な手作業の手がかりを提供する。
イベントベースSLRおよびSLTタスクのための効率的なトランスフォーマーベースフレームワークを提案する。
計算コストは0.34%に過ぎず,既存の最先端手法に対して良好に機能する。
論文 参考訳(メタデータ) (2024-07-17T14:16:35Z) - Motion-Agent: A Conversational Framework for Human Motion Generation with LLMs [67.59291068131438]
Motion-Agentは、一般的な人間の動きの生成、編集、理解のために設計された会話フレームワークである。
Motion-Agentはオープンソースの事前学習言語モデルを使用して、モーションとテキストのギャップを埋める生成エージェントであるMotionLLMを開発した。
論文 参考訳(メタデータ) (2024-05-27T09:57:51Z) - A Simple Baseline for Spoken Language to Sign Language Translation with 3D Avatars [49.60328609426056]
Spoken2Signは、音声言語を手話に変換するシステムである。
本稿では,グロスビデオ辞書の作成,サインビデオ毎の3Dサインの推定,スポンケン2サインモデルのトレーニングという3つのステップからなる単純なベースラインを提案する。
私たちが知っている限りでは、最初にSpken2Signタスクを3Dサインの出力フォーマットで提示します。
論文 参考訳(メタデータ) (2024-01-09T18:59:49Z) - PMMTalk: Speech-Driven 3D Facial Animation from Complementary Pseudo
Multi-modal Features [22.31865247379668]
音声駆動の3D顔アニメーションは、最近大幅に改善されている。
関連作品の多くは音響的モダリティのみを利用しており、視覚的・テキスト的手がかりの影響を無視している。
顔アニメーションの精度を向上させるために,Pseudo Multi-Modal 機能を用いた新しいフレームワーク PMMTalk を提案する。
論文 参考訳(メタデータ) (2023-12-05T14:12:38Z) - SignAvatars: A Large-scale 3D Sign Language Holistic Motion Dataset and Benchmark [20.11364909443987]
SignAvatarsは、難聴者や難聴者のコミュニケーションギャップを埋めるために設計された、最初の大規模でマルチプロンプトな3D手話言語(SL)モーションデータセットである。
データセットは153のシグナから7万本のビデオで構成され、合計8.34万フレームが分離されたサインと、連続的かつ協調的なサインの両方をカバーしている。
論文 参考訳(メタデータ) (2023-10-31T13:15:49Z) - sign.mt: Real-Time Multilingual Sign Language Translation Application [4.626189039960495]
Sign.mtは、音声言語と署名された言語間のリアルタイム多言語双方向翻訳の先駆的なオープンソースアプリケーションである。
聴覚と聴覚のコミュニケーションの相違に対処することを目的としており、音声と署名と署名の両方の方向のシームレスな翻訳を容易にする。
アプリは個人的および学術的な用途で使用、変更可能で、翻訳APIもサポートしている。
論文 参考訳(メタデータ) (2023-10-08T08:14:03Z) - Reconstructing Signing Avatars From Video Using Linguistic Priors [54.5282429129769]
手話(SL)は、世界中の7000万人の聴覚障害者のためのコミュニケーションの第一の方法である。
孤立したサインの動画辞書を3Dアバターに置き換えることで、学習を支援し、AR/VRアプリケーションを有効にすることができる。
SGNifyは、細かな手ポーズ、表情、身体の動きを、WildのモノクロSLビデオから完全に自動でキャプチャする。
論文 参考訳(メタデータ) (2023-04-20T17:29:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。