論文の概要: Learning Japanese with Jouzu: Interaction Outcomes with Stylized Dialogue Fictional Agents
- arxiv url: http://arxiv.org/abs/2507.06483v1
- Date: Wed, 09 Jul 2025 01:57:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-10 17:37:43.435324
- Title: Learning Japanese with Jouzu: Interaction Outcomes with Stylized Dialogue Fictional Agents
- Title(参考訳): ジョウズと日本語を学習する : スティル化された対話表現エージェントとの相互作用
- Authors: Zackary Rackauckas, Julia Hirschberg,
- Abstract要約: 本研究では,マルチモーダル言語学習環境において,音声エージェントがいかにユーザインタラクションを形成するかを検討する。
我々は,大規模言語モデルと表現型音声合成を用いたアニメインスピレーション文字と対話する54人の被験者を対象に,混合手法による評価を行った。
その結果,エージェントデザイン,特に音声,ペルソナ,言語スタイルが,ユーザエクスペリエンス,モチベーション,戦略に大きく影響したことが明らかとなった。
- 参考スコア(独自算出の注目度): 4.740589102992697
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This study investigates how stylized, voiced agents shape user interaction in a multimodal language learning environment. We conducted a mixed-methods evaluation of 54 participants interacting with anime-inspired characters powered by large language models and expressive text-to-speech synthesis. These agents responded in Japanese character language, offering users asynchronous, semi-structured conversation in varying speech styles and emotional tones. We analyzed user engagement patterns, perceived usability, emotional responses, and learning behaviors, with particular attention to how agent stylization influenced interaction across language proficiency levels and cultural backgrounds. Our findings reveal that agent design, especially voice, persona, and linguistic style, substantially affected user experience, motivation, and strategy. This work contributes to the understanding of affective, culturally stylized agents in human-agent interaction and offers guidance for designing more engaging, socially responsive systems.
- Abstract(参考訳): 本研究では,マルチモーダル言語学習環境において,音声エージェントがいかにユーザインタラクションを形成するかを検討する。
我々は,大規模言語モデルと表現型音声合成を用いたアニメインスピレーション文字と対話する54人の被験者を対象に,混合手法による評価を行った。
これらのエージェントは日本語で応答し、様々な音声スタイルと感情的なトーンで、非同期で半構造化された会話を提供する。
我々は,ユーザエンゲージメントパターン,ユーザビリティ,感情応答,学習行動を分析し,エージェントのスタイル化が言語習熟度と文化的背景の相互作用にどのように影響するかに着目した。
その結果,エージェントデザイン,特に音声,ペルソナ,言語スタイルが,ユーザエクスペリエンス,モチベーション,戦略に大きく影響したことが明らかとなった。
この研究は、人間とエージェントの相互作用における感情的、文化的にスタイル化されたエージェントの理解に寄与し、より魅力的で社会的にレスポンシブなシステムを設計するためのガイダンスを提供する。
関連論文リスト
- Aligning Spoken Dialogue Models from User Interactions [55.192134724622235]
本稿では,ユーザの対話からリアルタイム会話における音声対話モデルを改善するための新しい嗜好アライメントフレームワークを提案する。
AIフィードバックを付加した生のマルチターン音声会話から15万以上の好みペアのデータセットを作成する。
本研究は, 自然なリアルタイム音声対話システムにおいて重要な, 様々な力学におけるバランスの整合性の重要性を浮き彫りにした。
論文 参考訳(メタデータ) (2025-06-26T16:45:20Z) - From Persona to Person: Enhancing the Naturalness with Multiple Discourse Relations Graph Learning in Personalized Dialogue Generation [11.442761234901289]
パーソナライズされた対話生成のためのMUDI(textbfMu$ltiple $textbfDi$scourse Relations Graph Learning)を提案する。
本研究では,対話関係のアノテートを支援し,対話データを構造化された対話グラフに変換するために,大規模言語モデルを利用する。
本実験は,人間に似た対話交換に類似した,パーソナライズされた応答の質の向上を示す。
論文 参考訳(メタデータ) (2025-06-13T08:12:52Z) - OmniCharacter: Towards Immersive Role-Playing Agents with Seamless Speech-Language Personality Interaction [123.89581506075461]
OmniCharacter は,低レイテンシで没入型 RPA を実現するための対話型対話モデルである。
具体的には、OmniCharacterは、エージェントが相互作用を通して、ロール固有の性格特性と声質特性を一貫して表示できるようにする。
提案手法は,既存のRPAモデルや主流言語モデルと比較して,応答遅延を289msに抑えながら,内容とスタイルの両面で優れた応答が得られる。
論文 参考訳(メタデータ) (2025-05-26T17:55:06Z) - Towards Developmentally Plausible Rewards: Communicative Success as a Learning Signal for Interactive Language Models [49.22720751953838]
本研究では,子どもの言語習得に触発された対話型環境で言語モデルを訓練する手法を提案する。
この設定では、話者は1ターンの対話でリスナーに何らかの情報を伝達しようと試み、コミュニケーションの成功が達成されれば報酬を受け取る。
論文 参考訳(メタデータ) (2025-05-09T11:48:36Z) - Speaker effects in spoken language comprehension [0.9514940899499753]
話者の同一性は、知覚と期待の両方に影響を与えることにより、音声言語理解に大きな影響を及ぼす。
本稿では,音響的詳細によって駆動されるボトムアップ認識に基づくプロセスと,話者モデルによって駆動されるトップダウン予測に基づくプロセスとの相互作用を特徴とする統合モデルを提案する。
論文 参考訳(メタデータ) (2024-12-10T07:03:06Z) - Talk With Human-like Agents: Empathetic Dialogue Through Perceptible Acoustic Reception and Reaction [23.115506530649988]
PerceptiveAgentは、より深い意味またはより微妙な意味を識別するために設計された共感的マルチモーダル対話システムである。
PerceptiveAgentは入力音声から音響情報を知覚し、自然言語で記述された話し方に基づいて共感応答を生成する。
論文 参考訳(メタデータ) (2024-06-18T15:19:51Z) - CloChat: Understanding How People Customize, Interact, and Experience
Personas in Large Language Models [15.915071948354466]
CloChatは、大規模言語モデルにおけるエージェントペルソナの簡単かつ正確なカスタマイズをサポートするインターフェースである。
その結果、参加者はカスタマイズされたエージェントと感情結合を形成し、よりダイナミックな対話を行い、相互作用を持続することに興味を示した。
論文 参考訳(メタデータ) (2024-02-23T11:25:17Z) - deep learning of segment-level feature representation for speech emotion
recognition in conversations [9.432208348863336]
そこで本稿では,意図的文脈依存と話者感応的相互作用をキャプチャする対話型音声感情認識手法を提案する。
まず、事前訓練されたVGGishモデルを用いて、個々の発話におけるセグメントベース音声表現を抽出する。
第2に、注意的双方向リカレントユニット(GRU)は、文脈に敏感な情報をモデル化し、話者内および話者間依存関係を共同で探索する。
論文 参考訳(メタデータ) (2023-02-05T16:15:46Z) - Few-shot Language Coordination by Modeling Theory of Mind [95.54446989205117]
我々は、数ショット$textit language coordinate$のタスクについて研究する。
リードエージェントは、言語能力の異なるエージェントの$textitpopulation$と調整する必要があります。
これは、人間のコミュニケーションの重要な構成要素であるパートナーの信念をモデル化する能力を必要とする。
論文 参考訳(メタデータ) (2021-07-12T19:26:11Z) - Can You be More Social? Injecting Politeness and Positivity into
Task-Oriented Conversational Agents [60.27066549589362]
人間エージェントが使用する社会言語は、ユーザーの応答性の向上とタスク完了に関連しています。
このモデルは、ソーシャル言語理解要素で拡張されたシーケンスからシーケンスまでのディープラーニングアーキテクチャを使用する。
人的判断と自動言語尺度の両方を用いたコンテンツ保存と社会言語レベルの評価は,エージェントがより社会的に適切な方法でユーザの問題に対処できる応答を生成できることを示している。
論文 参考訳(メタデータ) (2020-12-29T08:22:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。