論文の概要: Learning to mirror speaking styles incrementally
- arxiv url: http://arxiv.org/abs/2003.04993v1
- Date: Thu, 5 Mar 2020 02:54:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-26 07:08:35.361790
- Title: Learning to mirror speaking styles incrementally
- Title(参考訳): 会話スタイルを段階的に反映する学習
- Authors: Siyi Liu (1), Ziang Leng (1), Derry Wijaya (1) ((1) Boston University)
- Abstract要約: ミラーリング(Mirrring)とは、ある人が意識的に他の人のジェスチャー、スピーチパターン、態度を模倣する行動である。
本研究では,人の発話スタイルを漸進的に反映する手法について検討する。
本手法は,話し言葉のスタイルを捉えたngramを抽出し,ngramを用いて文を話し声に変換するパターンを作成する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Mirroring is the behavior in which one person subconsciously imitates the
gesture, speech pattern, or attitude of another. In conversations, mirroring
often signals the speakers enjoyment and engagement in their communication. In
chatbots, methods have been proposed to add personas to the chatbots and to
train them to speak or to shift their dialogue style to that of the personas.
However, they often require a large dataset consisting of dialogues of the
target personalities to train. In this work, we explore a method that can learn
to mirror the speaking styles of a person incrementally. Our method extracts
ngrams that capture a persons speaking styles and uses the ngrams to create
patterns for transforming sentences to the persons speaking styles. Our
experiments show that our method is able to capture patterns of speaking style
that can be used to transform regular sentences into sentences with the target
style.
- Abstract(参考訳): ミラーリング(Mirrring)とは、ある人が意識的に他の人のジェスチャー、スピーチパターン、態度を模倣する行動である。
会話において、ミラーリングは、しばしば話者のコミュニケーションの楽しみとエンゲージメントを示す。
チャットボットでは、ペルソナをチャットボットに追加し、会話や対話スタイルをペルソナにシフトするように訓練する方法が提案されている。
しかし、訓練にはターゲットパーソナリティの対話からなる大きなデータセットを必要とすることが多い。
本研究では,人の発話スタイルを段階的に反映する手法について検討する。
本手法は,話し言葉のスタイルを捉えたngramを抽出し,ngramを用いて文を話し声に変換するパターンを作成する。
実験の結果,本手法は,正規文を対象文に変換するために使用可能な発話スタイルのパターンを抽出できることが判明した。
関連論文リスト
- Enhancing Impression Change Prediction in Speed Dating Simulations Based on Speakers' Personalities [2.1740370446058708]
本稿では,話者間の印象が速度デート中に向上するテキスト対話のシミュレーションに焦点をあてる。
我々は、発話が対話相手の話者に対する印象を改善するかどうかは、双方の個性に依存する可能性があると考えている。
個人性を考慮して,発話が相手の話者印象を改善するかどうかを予測する手法を提案する。
論文 参考訳(メタデータ) (2025-02-07T07:18:32Z) - LLM Roleplay: Simulating Human-Chatbot Interaction [52.03241266241294]
本研究では,人間とチャットボットの対話をシミュレートする多元多元対話を自動生成する,目標指向のペルソナに基づく手法を提案する。
本手法は,人間とチャットボットの対話を高い相違率でシミュレートすることができる。
論文 参考訳(メタデータ) (2024-07-04T14:49:46Z) - Advancing Large Language Models to Capture Varied Speaking Styles and Respond Properly in Spoken Conversations [65.29513437838457]
現在の2つの旋回が同じ文であっても、異なるスタイルで話されるときの応答は相変わらず異なる。
本稿では,言語内容と発話スタイルをモデル化できるSpken-LLMフレームワークを提案する。
StyleTalkデータセットを使用してSpoken-LLMをトレーニングし、Spoken-LLMが話し方を学ぶのに役立つ2段階のトレーニングパイプラインを作成します。
論文 参考訳(メタデータ) (2024-02-20T07:51:43Z) - Conversation Style Transfer using Few-Shot Learning [56.43383396058639]
本稿では,会話スタイルの伝達を数ショットの学習問題として紹介する。
そこで本研究では,スタイルフリー対話による課題をピボットとして解くための,コンテキスト内学習手法を提案する。
会話スタイルの転送は下流のタスクにも役立ちます。
論文 参考訳(メタデータ) (2023-02-16T15:27:00Z) - StyleTalk: One-shot Talking Head Generation with Controllable Speaking
Styles [43.12918949398099]
ワンショットスタイル制御可能な音声顔生成フレームワークを提案する。
任意の参照音声ビデオから話し方を得る。
それから、ワンショットのポートレートを駆動して、レファレンスな話し方と、別の音声で話す。
論文 参考訳(メタデータ) (2023-01-03T13:16:24Z) - Imitating Arbitrary Talking Style for Realistic Audio-DrivenTalking Face
Synthesis [17.650661515807993]
本稿では,特定の参照ビデオの任意の発話スタイルを模倣することにより,音声合成フレームワークにスタイルを注入することを提案する。
我々は,スタイルコードから発声スタイルを模倣して,スタイリングされた音声を合成する潜在スタイル融合(LSF)モデルを考案した。
論文 参考訳(メタデータ) (2021-10-30T08:15:27Z) - Stylized Dialogue Response Generation Using Stylized Unpaired Texts [63.69880979112312]
本稿では,文中に埋め込まれた文体の特徴を抽出する文体化対話生成手法を提案する。
提案手法は,与えられたコンテキストに忠実で,対象のスタイルに適合する対話応答を生成できる。
論文 参考訳(メタデータ) (2020-09-27T01:04:06Z) - Style Transfer for Co-Speech Gesture Animation: A Multi-Speaker
Conditional-Mixture Approach [46.50460811211031]
鍵となる課題は、ターゲット話者「B」のジェスチャースタイルで発話エージェント「A」のジェスチャーを生成するモデルを学習することである。
本研究では,複数の話者に対して1つのモデルを訓練し,各話者のジェスチャーに固有のスタイルの埋め込みを学習するMix-StAGEを提案する。
Mix-StAGEはスタイルとジェスチャーの内容が混在しているため、単にスタイル埋め込みを切り替えることで、同じ入力音声のジェスチャースタイルを変更することができる。
論文 参考訳(メタデータ) (2020-07-24T15:01:02Z) - I love your chain mail! Making knights smile in a fantasy game world:
Open-domain goal-oriented dialogue agents [69.68400056148336]
我々は、模倣学習したチトチャットモデルに対して強化学習を施した目標指向モデルを訓練する。
両モデルが逆モデルベースラインより優れており,目標を達成するために対話相手と自然に会話できることを示す。
論文 参考訳(メタデータ) (2020-02-07T16:22:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。