論文の概要: Will AI shape the way we speak? The emerging sociolinguistic influence of synthetic voices
- arxiv url: http://arxiv.org/abs/2504.10650v1
- Date: Mon, 14 Apr 2025 19:04:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-16 22:12:27.544831
- Title: Will AI shape the way we speak? The emerging sociolinguistic influence of synthetic voices
- Title(参考訳): AIは私たちの話し方を変えるか? 合成音声の社会言語学的影響
- Authors: Éva Székely, Jūra Miniota, Míša, Hejná,
- Abstract要約: 我々は、AI生成音声の社会的な影響は注意を喚起し、学際研究の焦点となるべきであると論じる。
我々は、AI生成音声の社会的な影響は注意を喚起し、学際研究の焦点となるべきであると論じる。
- 参考スコア(独自算出の注目度): 3.7777447186369786
- License:
- Abstract: The growing prevalence of conversational voice interfaces, powered by developments in both speech and language technologies, raises important questions about their influence on human communication. While written communication can signal identity through lexical and stylistic choices, voice-based interactions inherently amplify socioindexical elements - such as accent, intonation, and speech style - which more prominently convey social identity and group affiliation. There is evidence that even passive media such as television is likely to influence the audience's linguistic patterns. Unlike passive media, conversational AI is interactive, creating a more immersive and reciprocal dynamic that holds a greater potential to impact how individuals speak in everyday interactions. Such heightened influence can be expected to arise from phenomena such as acoustic-prosodic entrainment and linguistic accommodation, which occur naturally during interaction and enable users to adapt their speech patterns in response to the system. While this phenomenon is still emerging, its potential societal impact could provide organisations, movements, and brands with a subtle yet powerful avenue for shaping and controlling public perception and social identity. We argue that the socioindexical influence of AI-generated speech warrants attention and should become a focus of interdisciplinary research, leveraging new and existing methodologies and technologies to better understand its implications.
- Abstract(参考訳): 会話音声インタフェースの普及は、音声と言語技術の両方の発展に支えられ、人間のコミュニケーションへの影響に関する重要な疑問が提起される。
文字によるコミュニケーションは、語彙的およびスタイリスティックな選択を通じてアイデンティティをシグナル伝達するが、音声に基づく相互作用は本質的に、社会的アイデンティティとグループアフィリエイトをより顕著に伝達するアクセント、イントネーション、音声スタイルといった社会的な要素を増幅する。
テレビなどの受動的メディアでさえ、聴衆の言語パターンに影響を与える可能性があるという証拠がある。
受動的メディアとは異なり、会話型AIは対話的であり、より没入的で相互のダイナミクスを生み出し、個人が日常の会話で話す方法に大きな影響を与える可能性を秘めている。
このような影響は、対話中に自然に発生する音響・韻律的エントレインメントや言語的調節といった現象から生じ、ユーザがシステムに反応して音声パターンを適応させることができることが期待できる。
この現象はまだ発生しているが、その潜在的な社会的影響は、公共の認識と社会的アイデンティティを形作り、制御するための微妙で強力な手段を組織、運動、ブランドに提供する可能性がある。
我々は、AIが生成する音声の社会的な影響が注意を喚起し、その意味をより理解するために、新しい既存の方法論と技術を活用して学際研究の焦点となるべきであると論じる。
関連論文リスト
- From Personas to Talks: Revisiting the Impact of Personas on LLM-Synthesized Emotional Support Conversations [19.67703146838264]
大規模言語モデル(LLM)は感情的サポートの会話の世代に革命をもたらした。
本稿では,感情的支援会話の創出におけるペルソナの役割について考察する。
論文 参考訳(メタデータ) (2025-02-17T05:24:30Z) - Speaker effects in spoken language comprehension [0.9514940899499753]
話者の同一性は、知覚と期待の両方に影響を与えることにより、音声言語理解に大きな影響を及ぼす。
本稿では,音響的詳細によって駆動されるボトムアップ認識に基づくプロセスと,話者モデルによって駆動されるトップダウン予測に基づくプロセスとの相互作用を特徴とする統合モデルを提案する。
論文 参考訳(メタデータ) (2024-12-10T07:03:06Z) - Humane Speech Synthesis through Zero-Shot Emotion and Disfluency Generation [0.6964027823688135]
現代の会話システムは、人間の相互作用の感情的な深さと非流動的な特徴を欠いている。
この欠点に対処するため、我々は革新的な音声合成パイプラインを設計した。
このフレームワーク内では、最先端の言語モデルが、ゼロショット設定で人間のような感情と分散の両方を導入する。
論文 参考訳(メタデータ) (2024-03-31T00:38:02Z) - Attention-based Interactive Disentangling Network for Instance-level
Emotional Voice Conversion [81.1492897350032]
感情音声変換(Emotional Voice Conversion)は、非感情成分を保存しながら、与えられた感情に応じて音声を操作することを目的とする。
本稿では,音声変換にインスタンスワイドな感情知識を活用する,意図に基づく対話型ディスタングネットワーク(AINN)を提案する。
論文 参考訳(メタデータ) (2023-12-29T08:06:45Z) - Speech-Gesture GAN: Gesture Generation for Robots and Embodied Agents [5.244401764969407]
仮想エージェントや社会ロボットという形で、身体エージェントが急速に普及している。
音声テキストと音声の発話から関節角度の連続を生成できる新しい枠組みを提案する。
論文 参考訳(メタデータ) (2023-09-17T18:46:25Z) - Expanding the Role of Affective Phenomena in Multimodal Interaction
Research [57.069159905961214]
マルチモーダルインタラクション, 感情計算, 自然言語処理において, 選ばれたカンファレンスから16,000以上の論文を調査した。
本論文では,感情関連論文910を同定し,情緒現象の役割について分析した。
我々は、人間の社会的行動や認知状態の機械的理解を高めるために、AIシステムによって感情と感情の予測がどのように使用されるかについて、限られた研究結果を得た。
論文 参考訳(メタデータ) (2023-05-18T09:08:39Z) - Data-driven emotional body language generation for social robotics [58.88028813371423]
社会ロボティクスでは、人間型ロボットに感情の身体的表現を生成する能力を与えることで、人間とロボットの相互作用とコラボレーションを改善することができる。
我々は、手作業で設計されたいくつかの身体表現から学習する深層学習データ駆動フレームワークを実装した。
評価実験の結果, 生成した表現の人間同型とアニマシーは手作りの表現と異なる認識が得られなかった。
論文 参考訳(メタデータ) (2022-05-02T09:21:39Z) - E-ffective: A Visual Analytic System for Exploring the Emotion and
Effectiveness of Inspirational Speeches [57.279044079196105]
E-ffective(エフェクティブ)は、音声の専門家や初心者が、音声要因の役割と効果的な音声への貢献の両方を分析することのできる視覚分析システムである。
E-spiral(音声の感情の変化を視覚的にコンパクトに表現する)とE-script(音声コンテンツを主要な音声配信情報に結びつける)の2つの新しい可視化技術がある。
論文 参考訳(メタデータ) (2021-10-28T06:14:27Z) - Reinforcement Learning for Emotional Text-to-Speech Synthesis with
Improved Emotion Discriminability [82.39099867188547]
感情的テキスト音声合成(ETTS)は近年大きく進歩している。
i-ETTSと呼ばれるETTSの新しい対話型トレーニングパラダイムを提案する。
i-ETTSの最適化品質を確保するため、強化学習による反復トレーニング戦略を策定します。
論文 参考訳(メタデータ) (2021-04-03T13:52:47Z) - Disambiguating Affective Stimulus Associations for Robot Perception and
Dialogue [67.89143112645556]
知覚された聴覚刺激と感情表現の関連性を学ぶことができるNICOロボットを提供します。
NICOは、感情駆動対話システムの助けを借りて、個人と特定の刺激の両方でこれを行うことができる。
ロボットは、実際のHRIシナリオにおいて、被験者の聴覚刺激の楽しさを判断するために、この情報を利用することができる。
論文 参考訳(メタデータ) (2021-03-05T20:55:48Z) - Generating Emotionally Aligned Responses in Dialogues using Affect
Control Theory [15.848210524718219]
感情制御理論(Affect Control Theory、ACT)は、人間と人間の相互作用に対する感情の社会的・数学的モデルである。
本研究では、ACTが感情認識型神経会話エージェントの開発にどのように役立つかを検討する。
論文 参考訳(メタデータ) (2020-03-07T19:31:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。