論文の概要: The Dynamic Articulatory Model DYNARTmo: Dynamic Movement Generation and Speech Gestures
- arxiv url: http://arxiv.org/abs/2511.08372v1
- Date: Wed, 12 Nov 2025 01:56:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-12 20:17:03.785799
- Title: The Dynamic Articulatory Model DYNARTmo: Dynamic Movement Generation and Speech Gestures
- Title(参考訳): 動的調音モデルDYNARTMO:動的運動生成と音声ジェスチャー
- Authors: Bernd J. Kröger,
- Abstract要約: 本稿では,動的調音モデルDYNARTMOの現在の実装について述べる。
モデルは、音声ジェスチャーの概念と対応するジェスチャースコアに基づいて連続的な調音運動を生成する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper describes the current implementation of the dynamic articulatory model DYNARTmo, which generates continuous articulator movements based on the concept of speech gestures and a corresponding gesture score. The model provides a neurobiologically inspired computational framework for simulating the hierarchical control of speech production from linguistic representation to articulatory-acoustic realization. We present the structure of the gesture inventory, the coordination of gestures in the gesture score, and their translation into continuous articulator trajectories controlling the DYNARTmo vocal tract model.
- Abstract(参考訳): 本稿では,音声ジェスチャーの概念とそれに対応するジェスチャースコアに基づいて連続的な調音運動を生成する動的調音モデルDYNARTMOの現在の実装について述べる。
このモデルは、言語表現から調音的音響的実現に至るまで、音声生成の階層的制御をシミュレートするための神経生物学的にインスパイアされた計算フレームワークを提供する。
DYNARTMO声道モデルを制御する連続的な調音軌道への変換について,ジェスチャーの在庫構造,ジェスチャースコアにおけるジェスチャーの調整について述べる。
関連論文リスト
- Modeling Turn-Taking with Semantically Informed Gestures [56.31369237947851]
マルチパーティDnD Gesture corpusの拡張であるDnD Gesture++に2,663のセマンティックジェスチャアノテーションを付加した。
テキスト,音声,ジェスチャーを統合したMixture-of-Expertsフレームワークを用いてターンテイク予測をモデル化する。
実験により、意味的にガイドされたジェスチャーを組み込むことで、ベースラインよりも一貫したパフォーマンス向上が得られることが示された。
論文 参考訳(メタデータ) (2025-10-22T08:17:54Z) - DYNARTmo: A Dynamic Articulatory Model for Visualization of Speech Movement Patterns [0.0]
DYNARTMOは,2次元中矢状平面における音声の調音過程を可視化する動的調音モデルである。
このモデルは、UK-DYNAMOフレームワークに基づいて構築され、調音的不特定性、分節的およびジェスチャー的制御、協調の原理を統合している。
論文 参考訳(メタデータ) (2025-07-27T16:19:46Z) - Retrieving Semantics from the Deep: an RAG Solution for Gesture Synthesis [55.45253486141108]
RAG-Gestureは、意味的に豊かなジェスチャーを生成するための拡散に基づくジェスチャー生成手法である。
我々は、明示的なドメイン知識を用いて、共同音声ジェスチャーのデータベースから動きを検索する。
提案手法では,各検索挿入が生成したシーケンスに対して与える影響量を調整可能なガイダンス制御パラダイムを提案する。
論文 参考訳(メタデータ) (2024-12-09T18:59:46Z) - Freeform Body Motion Generation from Speech [53.50388964591343]
音声から体の動きを生成することは、音声から体の動きへの非決定論的マッピングのために本質的に困難である。
2ストリームアーキテクチャを組み込んだ新しいフリーフォームモーション生成モデル(FreeMo)を提案する。
実験は、いくつかのベースラインに対して優れたパフォーマンスを示す。
論文 参考訳(メタデータ) (2022-03-04T13:03:22Z) - Towards Multi-Scale Style Control for Expressive Speech Synthesis [60.08928435252417]
提案手法では,マルチスケール参照エンコーダを用いて,対象音声のグローバルな発話レベルと局所的な準音素レベルの特徴を抽出する。
訓練期間中、マルチスケールスタイルモデルは、エンドツーエンドで音声合成モデルと共同で訓練することができる。
論文 参考訳(メタデータ) (2021-04-08T05:50:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。