論文の概要: Challenges and opportunities in portraying emotion in generated sign language
- arxiv url: http://arxiv.org/abs/2508.07937v1
- Date: Mon, 11 Aug 2025 12:52:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-12 21:23:29.099552
- Title: Challenges and opportunities in portraying emotion in generated sign language
- Title(参考訳): 生成手話における感情表現の課題と機会
- Authors: John C. McDonald, Rosalee Wolfe, Fabrizio Nunnari,
- Abstract要約: 本稿では,パウラ署名アバターに対する運動的非手動信号に対する直観的2パラメータ表現の適用について検討する。
従来の方法よりも一貫性のある方法で感情的表情の言語的特定を促進することを約束している。
- 参考スコア(独自算出の注目度): 2.5489046505746704
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Non-manual signals in sign languages continue to be a challenge for signing avatars. More specifically, emotional content has been difficult to incorporate because of a lack of a standard method of specifying the avatar's emotional state. This paper explores the application of an intuitive two-parameter representation for emotive non-manual signals to the Paula signing avatar that shows promise for facilitating the linguistic specification of emotional facial expressions in a more coherent manner than previous methods. Users can apply these parameters to control Paula's emotional expressions through a textual representation called the EASIER notation. The representation can allow avatars to express more nuanced emotional states using two numerical parameters. It also has the potential to enable more consistent specification of emotional non-manual signals in linguistic annotations which drive signing avatars.
- Abstract(参考訳): 手話の非手話信号は、アバターに署名する際の課題であり続けている。
より具体的には、感情的な内容は、アバターの感情状態を特定する標準的な方法が欠如しているため、組み込むのが困難である。
本稿では,パウラ署名アバターに対する直感的な2パラメータ表現の非手動信号への応用について検討する。
ユーザーはこれらのパラメータを適用して、EASIER表記と呼ばれるテキスト表現を通じて、パウラの感情表現を制御することができる。
この表現により、アバターは2つの数値パラメータを使ってよりニュアンスな感情状態を表現することができる。
また、署名アバターを駆動する言語アノテーションにおいて、より一貫性のある感情的非手動信号の仕様化を可能にする可能性がある。
関連論文リスト
- Affective Image Editing: Shaping Emotional Factors via Text Descriptions [46.13506671212571]
AIEdiT for Affective Image Editing using Text descriptions。
我々は、連続的な感情スペクトルを構築し、ニュアンスな感情的要求を抽出する。
AIEdiTは、ユーザの感情的な要求を効果的に反映して、優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2025-05-24T13:46:57Z) - EmoSign: A Multimodal Dataset for Understanding Emotions in American Sign Language [26.020329504293777]
EmoSignは、200のAmerican Sign Language (ASL)ビデオに対する感情と感情のラベルを含む最初の手話ビデオデータセットである。
また、感情の手がかりのオープンな記述も収集する。
論文 参考訳(メタデータ) (2025-05-20T22:14:38Z) - Disentangle Identity, Cooperate Emotion: Correlation-Aware Emotional Talking Portrait Generation [63.94836524433559]
DICE-Talkは、感情と同一性を切り離し、類似した特徴を持つ感情を協調するフレームワークである。
我々は、モーダル・アテンションを通して、音声と視覚の感情の手がかりを共同でモデル化するアンタングル型感情埋め込み装置を開発した。
次に,学習可能な感情バンクを用いた相関強化感情調和モジュールを提案する。
第3に、拡散過程における感情の一貫性を強制する感情識別目標を設計する。
論文 参考訳(メタデータ) (2025-04-25T05:28:21Z) - EmoSEM: Segment and Explain Emotion Stimuli in Visual Art [25.539022846134543]
本稿では,視覚芸術理解における重要な課題に焦点をあてる。芸術的イメージを与えられたモデルは,特定の人間の感情を誘発するピクセル領域をピンポイントする。
近年の芸術理解の進歩にもかかわらず、ピクセルレベルの感情理解は依然として二重の課題に直面している。
本稿では,感情理解能力を持つセグメンテーションモデルSAMを実現するために,感情刺激・説明モデル(EmoSEM)を提案する。
論文 参考訳(メタデータ) (2025-04-20T15:40:00Z) - Enhancing Emotional Generation Capability of Large Language Models via Emotional Chain-of-Thought [50.13429055093534]
大規模言語モデル(LLM)は様々な感情認識タスクにおいて顕著な性能を示した。
本研究では,感情生成タスクにおけるLLMの性能を高めるための感情連鎖(ECoT)を提案する。
論文 参考訳(メタデータ) (2024-01-12T16:42:10Z) - Cross-speaker Emotion Transfer by Manipulating Speech Style Latents [7.384726530165295]
本稿では,潜在型空間におけるベクトル演算を用いた話者間感情伝達と操作のための新しい手法を提案する。
少数のラベル付きサンプルを活用することで、話者のアイデンティティを損なうことなく、読み上げスタイルの音声から感情的な音声を生成する。
論文 参考訳(メタデータ) (2023-03-15T02:34:03Z) - Emotion Intensity and its Control for Emotional Voice Conversion [77.05097999561298]
感情音声変換(EVC)は、言語内容と話者のアイデンティティを保ちながら、発話の感情状態を変換しようとする。
本稿では,感情の強さを明示的に表現し,制御することを目的とする。
本稿では,話者スタイルを言語内容から切り離し,連続した空間に埋め込み,感情埋め込みのプロトタイプを形成するスタイルに符号化することを提案する。
論文 参考訳(メタデータ) (2022-01-10T02:11:25Z) - Seen and Unseen emotional style transfer for voice conversion with a new
emotional speech dataset [84.53659233967225]
感情的音声変換は、言語内容と話者のアイデンティティを保ちながら、音声中の感情的韻律を変換することを目的としている。
可変自動符号化ワッサーシュタイン生成対向ネットワーク(VAW-GAN)に基づく新しいフレームワークを提案する。
提案するフレームワークは,ベースラインフレームワークを一貫して上回り,優れた性能を発揮することを示す。
論文 参考訳(メタデータ) (2020-10-28T07:16:18Z) - Facial Expression Editing with Continuous Emotion Labels [76.36392210528105]
深層生成モデルは、自動表情編集の分野で素晴らしい成果を上げている。
連続した2次元の感情ラベルに従って顔画像の表情を操作できるモデルを提案する。
論文 参考訳(メタデータ) (2020-06-22T13:03:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。