論文の概要: Lips-Jaw and Tongue-Jaw Articulatory Tradeoff in DYNARTmo
- arxiv url: http://arxiv.org/abs/2511.22155v1
- Date: Thu, 27 Nov 2025 06:45:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-01 19:47:55.431474
- Title: Lips-Jaw and Tongue-Jaw Articulatory Tradeoff in DYNARTmo
- Title(参考訳): DYNARTMOにおけるPlips-JawとTongue-Jawの調音トレードオフ
- Authors: Bernd J. Kröger,
- Abstract要約: 本稿では,DYNARTMOの動的動脈モデルが一次音節と二次音節間の調音的トレードオフに与える影響について検討する。
DYNARTMOはフルタスクダイナミックな2次処理を実装していないが、音声音韻学で使われるものと同等の1次タスク空間のジェスチャー仕様を採用している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper investigates how the dynamic articulatory model DYNARTmo accounts for articulatory tradeoffs between primary and secondary articulators, with a focus on lips-jaw and tongue-jaw coordination. While DYNARTmo does not implement full task-dynamic second-order biomechanics, it adopts first-order task-space gesture specifications comparable to those used in articulatory phonology and integrates a simplified mechanism for distributing articulatory effort across multiple articulators. We first outline the conceptual relationship between task dynamics and DYNARTmo, emphasizing the distinction between high-level task-space trajectories and their low-level articulatory execution. We then present simulation results for a set of CV syllables that illustrate how jaw displacement varies as a function of both place of articulation (labial, apical, dorsal) and vowel context (/a/, /i/, /u/). The model reproduces empirically attested patterns of articulatory synergy, including jaw-supported apical closures, lower-lip elevation in bilabial stops, tongue-jaw co-movement, and saturation effects in labial constrictions. These results demonstrate that even with computationally simplified assumptions, DYNARTmo can generate realistic spatio-temporal movement patterns that capture key aspects of articulatory tradeoff and synergy across a range of consonant-vowel combinations.
- Abstract(参考訳): 本稿では,DYNARTMOの動的調音モデルが,第1音節と第2音節間の調音トレードオフにどのように寄与するかを考察する。
DYNARTMOは、フルタスクダイナミックな2次バイオメカニクスを実装していないが、音声音韻学で使用されるものと同等の1次タスク空間のジェスチャー仕様を採用し、複数の調音器にまたがる調音作業を分散するための単純化されたメカニズムを統合している。
まず、タスクダイナミクスとDYNARTMOの概念的関係を概説し、高レベルなタスク空間軌跡と低レベルな調音実行の区別を強調した。
次に, 顎の変位が調音域(口蓋, 頭蓋, 背側)と母音文脈(/a/, /i/, /u/)の両方の機能としてどのように変化するかを示すCV音節のシミュレーション結果を示す。
本モデルは, 顎支持側頭蓋閉鎖, 口蓋閉鎖における下唇隆起, 口蓋収縮における飽和効果など, 経験的に証明された関節性シナジーのパターンを再現する。
これらの結果から,DYNARTMOは,計算的に単純化された仮定であっても,音節・母音の組み合わせにおける調音的トレードオフと相乗効果の重要な側面を捉えた時空間運動パターンを現実的に生成できることが示唆された。
関連論文リスト
- MIBURI: Towards Expressive Interactive Gesture Synthesis [62.45332399212876]
Embodied Conversational Agents (ECA) は、音声、ジェスチャー、表情を通じて人間の対面相互作用をエミュレートすることを目的としている。
既存のECAの解は、人間のような相互作用には適さない剛性で低多様性の運動を生み出す。
MIBURIは,リアルタイム音声対話と同期した表現力のあるフルボディジェスチャーと表情を生成するための,最初のオンライン因果的フレームワークである。
論文 参考訳(メタデータ) (2026-03-03T18:59:51Z) - Beyond Global Alignment: Fine-Grained Motion-Language Retrieval via Pyramidal Shapley-Taylor Learning [56.6025512458557]
動き言語検索は、自然言語と人間の動きの間の意味的ギャップを埋めることを目的としている。
既存のアプローチは主に、全動作シーケンスとグローバルテキスト表現の整合性に重点を置いている。
本研究では,微粒な動き言語検索のためのPST学習フレームワークを提案する。
論文 参考訳(メタデータ) (2026-01-29T16:00:12Z) - The Dynamic Articulatory Model DYNARTmo: Dynamic Movement Generation and Speech Gestures [0.0]
本稿では,動的調音モデルDYNARTMOの現在の実装について述べる。
モデルは、音声ジェスチャーの概念と対応するジェスチャースコアに基づいて連続的な調音運動を生成する。
論文 参考訳(メタデータ) (2025-11-11T15:50:52Z) - HM-Talker: Hybrid Motion Modeling for High-Fidelity Talking Head Synthesis [90.74616208952791]
HM-Talkerは、高忠実で時間的コヒーレントな話しヘッドを生成するための新しいフレームワークである。
AUs(Action Units)は、解剖学的に定義された顔面の筋肉の動きと、音素と視覚の相違を最小限に抑える暗黙的な特徴を使用する。
論文 参考訳(メタデータ) (2025-08-14T12:01:52Z) - InterSyn: Interleaved Learning for Dynamic Motion Synthesis in the Wild [65.29569330744056]
本稿では,リアルなインタラクション動作の生成を目標とする新しいフレームワークであるInterleaved Learning for Motion Synthesis(InterSyn)を提案する。
InterSynはインターリーブド・ラーニング・ストラテジーを用いて、現実世界のシナリオに固有の自然な動的相互作用とニュアンスド・コーディネーションを捉えている。
論文 参考訳(メタデータ) (2025-08-14T03:00:06Z) - DYNARTmo: A Dynamic Articulatory Model for Visualization of Speech Movement Patterns [0.0]
DYNARTMOは,2次元中矢状平面における音声の調音過程を可視化する動的調音モデルである。
このモデルは、UK-DYNAMOフレームワークに基づいて構築され、調音的不特定性、分節的およびジェスチャー的制御、協調の原理を統合している。
論文 参考訳(メタデータ) (2025-07-27T16:19:46Z) - AsynFusion: Towards Asynchronous Latent Consistency Models for Decoupled Whole-Body Audio-Driven Avatars [71.90109867684025]
全体オーディオ駆動型アバターポーズと表現生成は、生命に似たデジタル人間を作るための重要なタスクである。
本稿では,拡散変換器を応用し,結合表現とジェスチャ合成を実現する新しいフレームワークAsynFusionを提案する。
AsynFusionは、リアルタイムで同期された全身アニメーションを生成する際に最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2025-05-21T03:28:53Z) - Tracking Articulatory Dynamics in Speech with a Fixed-Weight BiLSTM-CNN Architecture [0.0]
本稿では,ある音声音響に係わる舌と唇の調音特徴を予測するための新しい手法を提案する。
提案するネットワークは,同時記録音声とEMA(Electromagnetic Articulography)データセットの2つのデータセットで訓練されている。
論文 参考訳(メタデータ) (2025-04-25T05:57:22Z) - SemTalk: Holistic Co-speech Motion Generation with Frame-level Semantic Emphasis [19.764460501254607]
一般的なリズム運動と稀だが本質的なセマンティックモーションを慎重に統合しなければ、良好な音声合成が達成できない。
本稿では,フレームレベルのセマンティクスを重視した音声合成のためのSemTalkを提案する。
論文 参考訳(メタデータ) (2024-12-21T10:16:07Z) - Interpretable Spatio-Temporal Embedding for Brain Structural-Effective Network with Ordinary Differential Equation [56.34634121544929]
本研究では,まず動的因果モデルを用いて脳効果ネットワークを構築する。
次に、STE-ODE(Spatio-Temporal Embedding ODE)と呼ばれる解釈可能なグラフ学習フレームワークを導入する。
このフレームワークは、構造的および効果的なネットワーク間の動的相互作用を捉えることを目的とした、特異的に設計されたノード埋め込み層を含んでいる。
論文 参考訳(メタデータ) (2024-05-21T20:37:07Z) - Tagged-MRI Sequence to Audio Synthesis via Self Residual Attention
Guided Heterogeneous Translator [12.685817926272161]
我々は,タグ付きMRIのシーケンスから対応する音声波形への変換を,データセットサイズに制限のあるエンドツーエンドのディープラーニングフレームワークを開発した。
筆者らの枠組みは, 自己残留注意戦略を指導した, 完全畳み込み非対称性トランスレータを基盤としている。
実験の結果,63個のタグ付きMRIシークエンスと音声音響を併用し,明瞭な音声波形を生成できることが判明した。
論文 参考訳(メタデータ) (2022-06-05T23:08:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。