論文の概要: EmoWear: Exploring Emotional Teasers for Voice Message Interaction on
Smartwatches
- arxiv url: http://arxiv.org/abs/2402.07174v1
- Date: Sun, 11 Feb 2024 12:03:01 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-13 17:06:31.088144
- Title: EmoWear: Exploring Emotional Teasers for Voice Message Interaction on
Smartwatches
- Title(参考訳): EmoWear: スマートウォッチ上での音声メッセージインタラクションのための感情的ティーザー
- Authors: Pengcheng An, Jiawen Zhu, Zibo Zhang, Yifei Yin, Qingyuan Ma, Che Yan,
Linghao Du, Jian Zhao
- Abstract要約: EmoWearはスマートウォッチの音声メッセージングシステムで、ユーザーはメッセージバブルに30のアニメーションティーザーを適用して感情を反映することができる。
その結果、EmoWearはメッセージの受信と送信の両方において感情的なコミュニケーション体験を著しく向上させた。
- 参考スコア(独自算出の注目度): 11.592591071027849
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Voice messages, by nature, prevent users from gauging the emotional tone
without fully diving into the audio content. This hinders the shared emotional
experience at the pre-retrieval stage. Research scarcely explored "Emotional
Teasers"-pre-retrieval cues offering a glimpse into an awaiting message's
emotional tone without disclosing its content. We introduce EmoWear, a
smartwatch voice messaging system enabling users to apply 30 animation teasers
on message bubbles to reflect emotions. EmoWear eases senders' choice by
prioritizing emotions based on semantic and acoustic processing. EmoWear was
evaluated in comparison with a mirroring system using color-coded message
bubbles as emotional cues (N=24). Results showed EmoWear significantly enhanced
emotional communication experience in both receiving and sending messages. The
animated teasers were considered intuitive and valued for diverse expressions.
Desirable interaction qualities and practical implications are distilled for
future design. We thereby contribute both a novel system and empirical
knowledge concerning emotional teasers for voice messaging.
- Abstract(参考訳): 音声メッセージは、ユーザーが音声コンテンツに完全に入り込むことなく、感情的なトーンを測ることを防ぐものだ。
これは、検索前の段階での感情経験の共有を妨げる。
研究は、内容の開示なしにメッセージの感情的なトーンを垣間見る「感情的なティーザー(emotional teasers)」-リトリーヴァル前の手がかりをほとんど探さなかった。
EmoWearは、ユーザーがメッセージバブルに30個のアニメーションティーザーを適用でき、感情を反映できるスマートウォッチ音声メッセージングシステムである。
EmoWearは、セマンティックおよび音響処理に基づいて感情を優先順位付けすることで、送信者の選択を容易にする。
EmoWearは、カラーコードされたメッセージバブルを感情的手がかりとして用いたミラーリングシステムと比較した(N=24。
エモウェアはメッセージの受信と送信の両方において感情的なコミュニケーション体験を著しく向上させた。
アニメーションティーザーは直感的で、多様な表現で評価されていた。
望ましい相互作用の質と実践的な意味合いは将来の設計のために蒸留される。
そこで我々は,音声メッセージングのための感情的ティーザーに関する経験的知識とシステムの構築に貢献する。
関連論文リスト
- EmoKnob: Enhance Voice Cloning with Fine-Grained Emotion Control [7.596581158724187]
EmoKnob(エモノブ)は、任意の感情の少数の実証的なサンプルを用いて、音声合成におけるきめ細かい感情制御を可能にするフレームワークである。
我々の感情制御フレームワークは、音声に感情を効果的に埋め込んで、商用TTSサービスの感情表現性を超越していることを示す。
論文 参考訳(メタデータ) (2024-10-01T01:29:54Z) - Exploring speech style spaces with language models: Emotional TTS without emotion labels [8.288443063900825]
本研究では,感情ラベルやテキストプロンプトを必要とせず,テキスト認識を利用して感情的スタイルを習得する手法を提案する。
E-TTSの2段階フレームワークであるTEMOTTSについて述べる。
論文 参考訳(メタデータ) (2024-05-18T23:21:39Z) - Attention-based Interactive Disentangling Network for Instance-level
Emotional Voice Conversion [81.1492897350032]
感情音声変換(Emotional Voice Conversion)は、非感情成分を保存しながら、与えられた感情に応じて音声を操作することを目的とする。
本稿では,音声変換にインスタンスワイドな感情知識を活用する,意図に基づく対話型ディスタングネットワーク(AINN)を提案する。
論文 参考訳(メタデータ) (2023-12-29T08:06:45Z) - Emotion Rendering for Conversational Speech Synthesis with Heterogeneous
Graph-Based Context Modeling [50.99252242917458]
会話音声合成(CSS)は,会話環境の中で適切な韻律と感情のインフレクションで発話を正確に表現することを目的としている。
データ不足の問題に対処するため、私たちはカテゴリと強度の点で感情的なラベルを慎重に作成します。
我々のモデルは感情の理解と表現においてベースラインモデルよりも優れています。
論文 参考訳(メタデータ) (2023-12-19T08:47:50Z) - Emotional Speech-Driven Animation with Content-Emotion Disentanglement [51.34635009347183]
本研究では,感情表現の明示的な制御を可能にしつつ,音声からリップシンクを維持する3次元音声アバターを生成するEMOTEを提案する。
EmOTEは、同じデータでトレーニングされた最先端の方法よりも、リップシンクで音声駆動の顔アニメーションを生成する。
論文 参考訳(メタデータ) (2023-06-15T09:31:31Z) - Emotion Intensity and its Control for Emotional Voice Conversion [77.05097999561298]
感情音声変換(EVC)は、言語内容と話者のアイデンティティを保ちながら、発話の感情状態を変換しようとする。
本稿では,感情の強さを明示的に表現し,制御することを目的とする。
本稿では,話者スタイルを言語内容から切り離し,連続した空間に埋め込み,感情埋め込みのプロトタイプを形成するスタイルに符号化することを提案する。
論文 参考訳(メタデータ) (2022-01-10T02:11:25Z) - Automatically Select Emotion for Response via Personality-affected
Emotion Transition [0.0]
ダイアログシステムは、人間のような反応に対する適切な感情を自動的に選択できるべきです。
既存のほとんどの研究は、特定の感情を反応のレンダリングやユーザーの感情に共感的に反応させることに重点を置いているが、感情表現の個人差は見過ごされている。
対話システムに人格を付与し、会話中の人間の感情遷移をシミュレートすることで、応答中の感情を自動的に選択できるようにする。
論文 参考訳(メタデータ) (2021-06-30T07:00:42Z) - Emotion-aware Chat Machine: Automatic Emotional Response Generation for
Human-like Emotional Interaction [55.47134146639492]
この記事では、投稿中のセマンティクスと感情を同時にエンコードできる、未定義のエンドツーエンドニューラルネットワークを提案する。
実世界のデータを用いた実験により,提案手法は,コンテンツコヒーレンスと感情の適切性の両方の観点から,最先端の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2021-06-06T06:26:15Z) - Infusing Multi-Source Knowledge with Heterogeneous Graph Neural Network
for Emotional Conversation Generation [25.808037796936766]
実世界の会話では,マルチソース情報から感情を直感的に知覚する。
感情的会話生成のための異種グラフモデルを提案する。
実験結果は,本モデルがマルチソース知識から感情を効果的に知覚できることを示した。
論文 参考訳(メタデータ) (2020-12-09T06:09:31Z) - MIME: MIMicking Emotions for Empathetic Response Generation [82.57304533143756]
共感応答生成への現在のアプローチは、入力テキストで表現された感情の集合を平らな構造として見る。
共感反応は, 肯定的, 否定的, 内容に応じて, ユーザの感情を様々な程度に模倣することが多い。
論文 参考訳(メタデータ) (2020-10-04T00:35:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。