論文の概要: Measuring Entrainment in Spontaneous Code-switched Speech
- arxiv url: http://arxiv.org/abs/2311.07703v1
- Date: Mon, 13 Nov 2023 19:41:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-15 16:32:26.961381
- Title: Measuring Entrainment in Spontaneous Code-switched Speech
- Title(参考訳): 自発コードスイッチト音声におけるエントレインメントの測定
- Authors: Debasmita Bhattacharya and Siying Ding and Alayna Nguyen and Julia
Hirschberg
- Abstract要約: 1) モノリンガル設定における文字と音声のエントレーニングのパターンは、コードスイッチされた設定に一般化されるか?
これら2つの質問に対する肯定的な回答は、コミュニケーション現象としてのエントレーニングの潜在的「普遍的な」性質と、包括的で対話的な音声技術における潜在的応用に重要な意味を持つ。
- 参考スコア(独自算出の注目度): 4.340875652237612
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: It is well-known that interlocutors who entrain to one another have more
successful conversations than those who do not. Previous research has shown
that interlocutors entrain on linguistic features in both written and spoken
monolingual domains. More recent work on code-switched communication has also
shown preliminary evidence of entrainment on certain aspects of code-switching
(CSW). However, such studies of entrainment in code-switched domains have been
extremely few and restricted to human-machine textual interactions. Our work
studies code-switched spontaneous speech between humans by answering the
following questions: 1) Do patterns of written and spoken entrainment in
monolingual settings generalize to code-switched settings? 2) Do patterns of
entrainment on code-switching in generated text generalize to spontaneous
code-switched speech? We find evidence of affirmative answers to both of these
questions, with important implications for the potentially "universal" nature
of entrainment as a communication phenomenon, and potential applications in
inclusive and interactive speech technology.
- Abstract(参考訳): 互いに訓練するインターロケーターは、知らない人よりも会話が成功することはよく知られている。
これまでの研究では、言語的特徴を単言語的ドメインと単言語的ドメインの両方で訓練することが示されている。
コードスイッチング通信に関する最近の研究は、コードスイッチング(CSW)の特定の側面に関する事前の証拠も示している。
しかし、このようなコード交換ドメインにおける学習の研究は極めて少なく、人間と機械の相互作用に制限されている。
私たちの研究は、以下の質問に答えて、人間同士の自発的な会話をコード交換した。
1)単言語環境における文字・音声の連関パターンは,コード切り換え設定に一般化するか?
2) 生成テキストにおけるコードスイッチングのパターンは自発的なコードスイッチング音声に一般化されるか?
両質問に対する肯定的回答の証拠は,コミュニケーション現象としてのエントレーニングの潜在的「普遍的」性質に重要な意味を持ち,包括的かつ対話的な音声技術への応用の可能性を見いだす。
関連論文リスト
- Moshi: a speech-text foundation model for real-time dialogue [78.88479749811376]
現在の音声対話システムは、パイプラインの独立した音声活動検出と音声合成に依存している。
そこで本研究では,Moshi Moshiが音声認識と音声合成を実現する方法を紹介する。
得られたモデルは、初めてリアルタイムな全音声大言語モデルモダリティである。
論文 参考訳(メタデータ) (2024-09-17T17:55:39Z) - Code-switching in text and speech reveals information-theoretic audience design [5.3329709073809095]
コードスイッチングに影響を与える要因について,言語モデルを用いて検討する。
ある話者が1つの言語(第一言語)と別の言語(第二言語)を交互に話すとき、コードスイッチングが発生する
論文 参考訳(メタデータ) (2024-08-08T17:14:12Z) - Code-Mixed Probes Show How Pre-Trained Models Generalise On Code-Switched Text [1.9185059111021852]
事前学習された言語モデルが3次元のコードスイッチトテキストをどのように扱うかを検討する。
その結果,事前学習した言語モデルは,コードスイッチトテキストへの一般化に有効であることが判明した。
論文 参考訳(メタデータ) (2024-03-07T19:46:03Z) - Communication Drives the Emergence of Language Universals in Neural
Agents: Evidence from the Word-order/Case-marking Trade-off [3.631024220680066]
ニューラルエージェント言語学習通信フレームワーク(NeLLCom)を提案する。
我々はエージェントに特定のバイアスをハードコーディングすることなく、新しいフレームワークでトレードオフを複製することに成功しました。
論文 参考訳(メタデータ) (2023-01-30T17:22:33Z) - Channel-aware Decoupling Network for Multi-turn Dialogue Comprehension [81.47133615169203]
本稿では,PrLMの逐次文脈化を超えて,発話間の包括的相互作用のための合成学習を提案する。
私たちは、モデルが対話ドメインに適応するのを助けるために、ドメイン適応型トレーニング戦略を採用しています。
実験の結果,提案手法は4つの公開ベンチマークデータセットにおいて,強力なPrLMベースラインを著しく向上させることがわかった。
論文 参考訳(メタデータ) (2023-01-10T13:18:25Z) - LAE: Language-Aware Encoder for Monolingual and Multilingual ASR [87.74794847245536]
言語固有の情報を混在させることにより,両状況に対処する新しい言語対応エンコーダ (LAE) アーキテクチャを提案する。
マンダリン・イングリッシュ・コードスウィッチ音声を用いた実験により,LAEはフレームレベルで異なる言語を識別できることが示唆された。
論文 参考訳(メタデータ) (2022-06-05T04:03:12Z) - Back to the Future: Bidirectional Information Decoupling Network for
Multi-turn Dialogue Modeling [80.51094098799736]
ユニバーサル対話エンコーダとして双方向情報デカップリングネットワーク(BiDeN)を提案する。
BiDeNは過去と将来の両方のコンテキストを明示的に取り入れており、幅広い対話関連のタスクに一般化することができる。
異なる下流タスクのデータセットに対する実験結果は、我々のBiDeNの普遍性と有効性を示している。
論文 参考訳(メタデータ) (2022-04-18T03:51:46Z) - Filling the Gap of Utterance-aware and Speaker-aware Representation for
Multi-turn Dialogue [76.88174667929665]
マルチターン対話は、2つ以上の異なる話者の役割から複数の発話からなる。
既存の検索に基づくマルチターン対話モデルでは、事前訓練された言語モデル(PrLM)をエンコーダとして、対話を粗く表現する。
本稿では,対話履歴に係わる効果的な発話認識表現と話者認識表現をモデル化することにより,そのようなギャップを埋める新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-09-14T15:07:19Z) - Phonological Features for 0-shot Multilingual Speech Synthesis [50.591267188664666]
単言語モデルにおいても,トレーニング中に見つからない言語に対して,コードスイッチングが可能であることを示す。
テスト時には、訓練で見たことのない音の近似を含む、新しい言語で、理解不能で、コードスイッチトされた音声を生成する。
論文 参考訳(メタデータ) (2020-08-06T18:25:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。