論文の概要: Building Trust Through Voice: How Vocal Tone Impacts User Perception of Attractiveness of Voice Assistants
- arxiv url: http://arxiv.org/abs/2409.18941v1
- Date: Fri, 27 Sep 2024 17:41:18 GMT
- ステータス: 処理完了
- システム内更新日: 2024-10-01 07:41:44.872862
- Title: Building Trust Through Voice: How Vocal Tone Impacts User Perception of Attractiveness of Voice Assistants
- Title(参考訳): 音声による信頼構築 : 音声アシスタントの魅力に対するユーザの認識に及ぼす声調の影響
- Authors: Sabid Bin Habib Pias, Alicia Freel, Ran Huang, Donald Williamson, Minjeong Kim, Apu Kapadia,
- Abstract要約: VA音声のトーンが,その魅力と信頼性に顕著に影響を及ぼすことを示す。
VAの信頼感は,様々な声調を取り入れた思慮深い音声設計によって向上することができると結論付けた。
- 参考スコア(独自算出の注目度): 5.6506553465822424
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Voice Assistants (VAs) are popular for simple tasks, but users are often hesitant to use them for complex activities like online shopping. We explored whether the vocal characteristics like the VA's vocal tone, can make VAs perceived as more attractive and trustworthy to users for complex tasks. Our findings show that the tone of the VA voice significantly impacts its perceived attractiveness and trustworthiness. Participants in our experiment were more likely to be attracted to VAs with positive or neutral tones and ultimately trusted the VAs they found more attractive. We conclude that VA's perceived trustworthiness can be enhanced through thoughtful voice design, incorporating a variety of vocal tones.
- Abstract(参考訳): 音声アシスタント(VA)は単純なタスクで人気があるが、オンラインショッピングのような複雑な活動に使用するのをためらうことが多い。
VAの発声音のような発声特性が,複雑なタスクにおいて,VAをユーザにとってより魅力的で信頼性の高いものにするかどうかを検討した。
その結果,VA音声のトーンが,その魅力と信頼性に大きく影響していることが判明した。
実験の参加者は、肯定的あるいは中立的な声調を持つVAに惹きつけられる傾向があり、最終的に彼らがより魅力的に感じたVAを信頼した。
VAの信頼感は,様々な声調を取り入れた思慮深い音声設計によって向上することができると結論付けた。
関連論文リスト
- Who is Authentic Speaker [4.822108779108675]
音声変換は、操作された音声が偽りの目的で使用される場合、潜在的な社会的問題を引き起こす可能性がある。
音源の音響特性が大きく変化しているため、変換された音声から実際の話者が誰であるかを見つけることは大きな課題である。
本研究は, 話者の声が異なるターゲット音声に変換された場合でも, 音源話者からの特定の情報が持続するという仮定を用いて行った。
論文 参考訳(メタデータ) (2024-04-30T23:41:00Z) - Rethinking the Evaluation of Dialogue Systems: Effects of User Feedback on Crowdworkers and LLMs [57.16442740983528]
アドホック検索では、評価は暗黙のフィードバックを含むユーザーの行動に大きく依存する。
アノテータの会話知覚におけるターン評価におけるユーザフィードバックの役割はほとんど研究されていない。
本稿では,タスク指向対話システム(TDS)の評価が,ターンのフォローアップ発話を通じて提供されるユーザフィードバック,明示的あるいは暗黙的な評価にどのように影響するかに注目した。
論文 参考訳(メタデータ) (2024-04-19T16:45:50Z) - Coimagining the Future of Voice Assistants with Cultural Sensitivity [27.504761918190958]
日本における非西洋的文脈における共同設計VAの価値について検討する。
日本語と英語のアメリカ・コンテクストのデザインガイドラインを提供する。
論文 参考訳(メタデータ) (2024-03-26T11:09:58Z) - Towards Improving the Expressiveness of Singing Voice Synthesis with
BERT Derived Semantic Information [51.02264447897833]
本稿では、変換器(BERT)から派生したセマンティック埋め込みから双方向エンコーダ表現を用いた、エンドツーエンドの高品質な歌声合成(SVS)システムを提案する。
提案したSVSシステムは、高品質なVISingerで歌声を生成することができる。
論文 参考訳(メタデータ) (2023-08-31T16:12:01Z) - "We care": Improving Code Mixed Speech Emotion Recognition in
Customer-Care Conversations [36.9886023078247]
音声感情認識(SER)は、発話中の感情を識別するタスクである。
本稿では,単語レベルのVAD値を組み込むことで,負の感情に対して,SERのタスクを2%改善することを示す。
我々の研究は、このような状況下でより丁寧で共感的な会話エージェントを開発するために利用することができる。
論文 参考訳(メタデータ) (2023-08-06T15:56:12Z) - Push-Pull: Characterizing the Adversarial Robustness for Audio-Visual
Active Speaker Detection [88.74863771919445]
我々は、音声のみ、視覚のみ、および音声-視覚的敵対攻撃下でのAVASDモデルの脆弱性を明らかにする。
また,攻撃者が現実的な相手を見つけるのを困難にするため,新たな音声・視覚的相互作用損失(AVIL)を提案する。
論文 参考訳(メタデータ) (2022-10-03T08:10:12Z) - Learning the Beauty in Songs: Neural Singing Voice Beautifier [69.21263011242907]
我々は、新しいタスク、歌声美化(SVB)に興味を持っている。
アマチュア歌手の歌声を考えると、SVBは内容と声の音色を保ちながら、声のイントネーションと声のトーンを改善することを目的としている。
SVBタスクを解く最初の生成モデルであるNSVB(Neural Singing Voice Beautifier)を導入する。
論文 参考訳(メタデータ) (2022-02-27T03:10:12Z) - Learning Sound Localization Better From Semantically Similar Samples [79.47083330766002]
既存のオーディオ・ヴィジュアル・ワークでは、正のソースから対応するオーディオ・ヴィジュアル・ペアを割り当て、ランダムに一致しないペアを負のソースに割り当てることで、コントラスト学習を採用している。
私たちの重要な貢献は、ハードポジトリが対応するペアに同様の応答マップを提供することを示すことです。
本稿では,VGG-SSおよびSoundNet-Flickrテストセットに対するアプローチの有効性を示す。
論文 参考訳(メタデータ) (2022-02-07T08:53:55Z) - A Study on the Manifestation of Trust in Speech [12.057694908317991]
音声に基づいて仮想アシスタント(VA)でユーザーが持っている信頼レベルを自動的に検出する可能性を検討します。
VAのスキルに対する信頼度が異なるよう誘導された被験者から発話データを収集するための新しいプロトコルを開発した。
我々は、このプロトコルが効果的にエージェントのスキルを信頼または不信の望ましい精神状態に被験者に影響を与えることに成功したという明確な証拠を示しています。
論文 参考訳(メタデータ) (2021-02-09T13:08:54Z) - VoiceCoach: Interactive Evidence-based Training for Voice Modulation
Skills in Public Speaking [55.366941476863644]
ピッチ,ボリューム,速度などの音声特性の変調は,公的な発話を成功させる上で極めて重要である。
音声変調スキルの効果的な訓練を容易にする対話型エビデンスに基づくアプローチであるVoiceCoachを提案する。
論文 参考訳(メタデータ) (2020-01-22T04:52:06Z) - Unsupervised Representation Disentanglement using Cross Domain Features
and Adversarial Learning in Variational Autoencoder based Voice Conversion [28.085498706505774]
音声変換(VC)の効果的なアプローチは、音声信号の他のコンポーネントから言語内容を切り離すことである。
本稿では,逆学習の概念を取り入れ,CDVAE-VCフレームワークを拡張した。
論文 参考訳(メタデータ) (2020-01-22T02:06:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。