論文の概要: Dehumanizing Voice Technology: Phonetic & Experiential Consequences of
Restricted Human-Machine Interaction
- arxiv url: http://arxiv.org/abs/2111.01934v1
- Date: Tue, 2 Nov 2021 22:49:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-04 23:53:55.100715
- Title: Dehumanizing Voice Technology: Phonetic & Experiential Consequences of
Restricted Human-Machine Interaction
- Title(参考訳): 非人間化音声技術:人間-機械間相互作用の音声的・経験的影響
- Authors: Christian Hildebrand, Donna Hoffman, Tom Novak
- Abstract要約: 我々は、要求が音声の収束と低音声の遅延を増大させ、最終的には消費者にとってより自然なタスク体験をもたらすことを示す。
スマートオブジェクトとの対話を開始するために必要な入力を変更することは、消費者の主観的経験と人間の声の客観的な音声的変化の両方において、体系的な変化を引き起こす証拠を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The use of natural language and voice-based interfaces gradu-ally transforms
how consumers search, shop, and express their preferences. The current work
explores how changes in the syntactical structure of the interaction with
conversational interfaces (command vs. request based expression modalities)
negatively affects consumers' subjective task enjoyment and systematically
alters objective vocal features in the human voice. We show that requests (vs.
commands) lead to an in-crease in phonetic convergence and lower phonetic
latency, and ultimately a more natural task experience for consumers. To the
best of our knowledge, this is the first work docu-menting that altering the
input modality of how consumers interact with smart objects systematically
affects consumers' IoT experience. We provide evidence that altering the
required input to initiate a conversation with smart objects provokes
systematic changes both in terms of consumers' subjective experience and
objective phonetic changes in the human voice. The current research also makes
a methodological con-tribution by highlighting the unexplored potential of
feature extraction in human voice as a novel data format linking consumers'
vocal features during speech formation and their sub-jective task experiences.
- Abstract(参考訳): 自然言語と音声ベースのインターフェイスの使用は、消費者が好みを検索、買い物、表現する方法を段階的に変える。
本研究は,対話インタフェースとの相互作用の統語的構造の変化が消費者の主観的タスクの楽しさに悪影響を及ぼし,人間の声の客観的な声質を体系的に変化させる方法について考察する。
我々は、要求(vs.コマンド)が音声の収束と低音声の遅延を増大させ、最終的には消費者にとってより自然なタスク体験をもたらすことを示す。
私たちの知る限りでは、スマートオブジェクトとのインタラクションの入力モダリティが消費者のIoTエクスペリエンスに体系的に影響を及ぼすのは、これが初めての作業ドキュメントです。
スマートオブジェクトとの対話を開始するために必要な入力を変更することは、消費者の主観的経験と人間の声の客観的な変化の両方において体系的な変化を引き起こすことを示す。
本研究は,音声生成時の音声特徴と主観的課題経験を結びつけた新たなデータ形式として,人声の特徴抽出の可能性について検討した。
関連論文リスト
- Enhancing Personality Recognition in Dialogue by Data Augmentation and
Heterogeneous Conversational Graph Networks [30.33718960981521]
パーソナリティ認識は、ユーザ適応応答をカスタマイズするロボットの能力を高めるのに有用である。
この課題の1つは、既存の対話コーパスにおける話者の限られた数である。
論文 参考訳(メタデータ) (2024-01-11T12:27:33Z) - End-to-End Continuous Speech Emotion Recognition in Real-life Customer
Service Call Center Conversations [0.0]
本稿では,顧客サービスコールセンタ会話における連続SERのための大規模実生活データセット(CusEmo)を構築するためのアプローチを提案する。
我々は,実生活におけるコールセンター会話における感情の微妙さ,複雑さ,継続性を捉えるために,次元的感情アノテーションアプローチを採用した。
この研究は、データセットへのEnd-to-End (E2E) SERシステムの適用中に発生する課題にも対処している。
論文 参考訳(メタデータ) (2023-10-02T11:53:48Z) - Dynamic Causal Disentanglement Model for Dialogue Emotion Detection [77.96255121683011]
隠れ変数分離に基づく動的因果解離モデルを提案する。
このモデルは、対話の内容を効果的に分解し、感情の時間的蓄積を調べる。
具体的には,発話と隠れ変数の伝搬を推定する動的時間的ゆがみモデルを提案する。
論文 参考訳(メタデータ) (2023-09-13T12:58:09Z) - Interactive Conversational Head Generation [68.76774230274076]
対面会話における1つのインターロケータの振る舞いを合成するための新しい対話ヘッド生成ベンチマークを提案する。
長時間・複数回会話に参加可能なインターロカクタを自動的に合成する機能は不可欠であり、様々なアプリケーションにメリットを提供する。
論文 参考訳(メタデータ) (2023-07-05T08:06:26Z) - Visual-Aware Text-to-Speech [101.89332968344102]
テキスト入力と対面コミュニケーションにおけるリスナーの視覚的フィードバックの両方で条件付き音声を合成する新しい視覚認識型音声合成(VA-TTS)タスクを提案する。
音声合成のための音素言語情報とリスナー視覚信号を融合するベースラインモデルを提案する。
論文 参考訳(メタデータ) (2023-06-21T05:11:39Z) - deep learning of segment-level feature representation for speech emotion
recognition in conversations [9.432208348863336]
そこで本稿では,意図的文脈依存と話者感応的相互作用をキャプチャする対話型音声感情認識手法を提案する。
まず、事前訓練されたVGGishモデルを用いて、個々の発話におけるセグメントベース音声表現を抽出する。
第2に、注意的双方向リカレントユニット(GRU)は、文脈に敏感な情報をモデル化し、話者内および話者間依存関係を共同で探索する。
論文 参考訳(メタデータ) (2023-02-05T16:15:46Z) - Analysis and Utilization of Entrainment on Acoustic and Emotion Features
in User-agent Dialogue [8.933468765800518]
まず,人間同士の対話におけるエントレメント現象の存在について検討する。
分析の結果,音響的特徴と感情的特徴の両面において,エントレーニングの強い証拠が得られた。
本研究では,2つの訓練ポリシーを実装し,テキスト音声(TTS)システムへの学習原則の統合により,合成性能とユーザエクスペリエンスが向上するかどうかを評価する。
論文 参考訳(メタデータ) (2022-12-07T01:45:15Z) - Understanding How People Rate Their Conversations [73.17730062864314]
我々は、人々が会話エージェントとのインタラクションをどのように評価するかをよりよく理解するために研究を行う。
我々は、評価の変動を説明する変数として、同意性と外向性に焦点を当てる。
論文 参考訳(メタデータ) (2022-06-01T00:45:32Z) - Responsive Listening Head Generation: A Benchmark Dataset and Baseline [58.168958284290156]
本研究では、応答型リスニングヘッド生成タスクを、複数の入力に応答する動きと表現を持つ非言語ヘッドの合成として定義する。
音声によるジェスチャーや音声のヘッド生成とは違って,いくつかの研究分野の恩恵を期待して,このタスクにより多くのモーダルを導入する。
論文 参考訳(メタデータ) (2021-12-27T07:18:50Z) - Quantifying the Effects of Prosody Modulation on User Engagement and
Satisfaction in Conversational Systems [10.102799140277932]
ユーザの行動とエンゲージメントに対する韻律変調の効果を計測する大規模実証研究の結果を報告する。
以上の結果から,韻律変調はユーザの即時満足度と全体的な満足度の両方を著しく向上させることが示唆された。
本研究は,会話システムにおける応答の自然性を改善するための有用なツールと洞察を提供する。
論文 参考訳(メタデータ) (2020-06-02T19:53:13Z) - You Impress Me: Dialogue Generation via Mutual Persona Perception [62.89449096369027]
認知科学の研究は、理解が高品質なチャット会話に不可欠なシグナルであることを示唆している。
そこで我々は,P2 Botを提案する。このP2 Botは,理解を明示的にモデル化することを目的とした送信機受信者ベースのフレームワークである。
論文 参考訳(メタデータ) (2020-04-11T12:51:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。