論文の概要: See what I'm saying? Comparing Intelligent Personal Assistant use for
Native and Non-Native Language Speakers
- arxiv url: http://arxiv.org/abs/2006.06328v1
- Date: Thu, 11 Jun 2020 11:03:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 14:16:34.403404
- Title: See what I'm saying? Comparing Intelligent Personal Assistant use for
Native and Non-Native Language Speakers
- Title(参考訳): 何言ってるか分かるか?
ネイティブおよび非ネイティブ言語話者の知的パーソナルアシスタント使用の比較
- Authors: Yunhan Wu, Daniel Rough, Anna Bleakley, Justin Edwards, Orla Cooney,
Philip R. Doyle, Leigh Clark, and Benjamin R. Cowan
- Abstract要約: IPAが現在どのようにユーザをサポートするか、あるいは妨げているかを理解することを目的としています。
インタビューの結果,L2話者は言語的制限に対する発話計画に優先していたことが明らかとなった。
L2話者はIPAを言語的ニーズに敏感であるとみなし、相互作用が失敗する。
我々は,言語生産の負担を軽減しつつ,視覚的フィードバックを重視しながら,L2ユーザのためのIPA体験をカスタマイズする必要性について論じる。
- 参考スコア(独自算出の注目度): 12.021912017203842
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Limited linguistic coverage for Intelligent Personal Assistants (IPAs) means
that many interact in a non-native language. Yet we know little about how IPAs
currently support or hinder these users. Through native (L1) and non-native
(L2) English speakers interacting with Google Assistant on a smartphone and
smart speaker, we aim to understand this more deeply. Interviews revealed that
L2 speakers prioritised utterance planning around perceived linguistic
limitations, as opposed to L1 speakers prioritising succinctness because of
system limitations. L2 speakers see IPAs as insensitive to linguistic needs
resulting in failed interaction. L2 speakers clearly preferred using
smartphones, as visual feedback supported diagnoses of communication breakdowns
whilst allowing time to process query results. Conversely, L1 speakers
preferred smart speakers, with audio feedback being seen as sufficient. We
discuss the need to tailor the IPA experience for L2 users, emphasising visual
feedback whilst reducing the burden of language production.
- Abstract(参考訳): 知的パーソナルアシスタント(IPAs)の限定言語カバレッジは、多くの人が非ネイティブ言語で対話することを意味する。
しかし、現在のIPAがこれらのユーザーをどのようにサポートしたり妨げたりするかについてはほとんどわかっていません。
ネイティブ(L1)と非ネイティブ(L2)の英語話者がスマートフォンとスマートスピーカーでGoogleアシスタントと対話することで、より深く理解することを目指している。
インタビューの結果,L2話者は言語的制限に対する発話計画に優先しており,L1話者はシステム制限のために簡潔さを優先していた。
L2話者はIPAを言語的ニーズに敏感であるとみなし、相互作用が失敗する。
視覚フィードバックは、クエリ結果を処理する時間を確保しながら、コミュニケーション障害の診断をサポートするため、l2スピーカーは明らかにスマートフォンを使うのを好んだ。
逆に、l1スピーカーはスマートスピーカーを好み、オーディオフィードバックは十分と見なされている。
我々は,言語生産の負担を軽減しつつ,視覚的フィードバックを重視しながら,L2ユーザのためのIPA体験をカスタマイズする必要性について論じる。
関連論文リスト
- A Pilot Study of Applying Sequence-to-Sequence Voice Conversion to Evaluate the Intelligibility of L2 Speech Using a Native Speaker's Shadowings [12.29892010056753]
L2話者の理想的なフィードバック形式は、非常にきめ細かな粒度であり、発話の理解不能な部分を検出して診断することができる。
このパイロットスタディでは、非ネイティブ話者(L2)の読み上げ、母語話者(L1)のシャドーイング、スクリプトシェーディング発話からなるユニークな半並列データセットを利用する。
音声変換技術を用いてL1話者の隠れL2音声の処理を再現し、仮想シャドーアシステムを構築する技術的可能性について検討する。
論文 参考訳(メタデータ) (2024-10-03T06:24:56Z) - An Initial Investigation of Language Adaptation for TTS Systems under Low-resource Scenarios [76.11409260727459]
本稿では,最近のSSLベースの多言語TSシステムであるZMM-TTSの言語適応性について検討する。
本研究では,事前学習言語と対象言語との音声学的な類似性が,対象言語の適応性能に影響を及ぼすことを示す。
論文 参考訳(メタデータ) (2024-06-13T08:16:52Z) - What Do Dialect Speakers Want? A Survey of Attitudes Towards Language Technology for German Dialects [60.8361859783634]
我々はドイツ語に関連する方言と地域言語に関する話者を調査した。
回答者は特に、方言入力で動作する潜在的なNLPツールを好んでいる。
論文 参考訳(メタデータ) (2024-02-19T09:15:28Z) - L1-aware Multilingual Mispronunciation Detection Framework [10.15106073866792]
本稿では,L1-Aware 音声表現に富んだ多言語MDDアーキテクチャ L1-MultiMDDを提案する。
入力信号とその対応する基準音素シーケンスに基づいて、エンドツーエンドの音声エンコーダを訓練する。
実験では、L1-MultiMDDフレームワークが、L2-ARTIC、LATIC、AraVoiceL2v2と、EpaDBとSpeechocean762データセットの両方で有効であることを示した。
論文 参考訳(メタデータ) (2023-09-14T13:53:17Z) - BiPhone: Modeling Inter Language Phonetic Influences in Text [12.405907573933378]
テクノロジーの非対称性のため、リテラシーの低い言語でWebを使わざるを得ない人は多い。
そのようなユーザから第2言語(L2)で書かれたテキストには、ネイティブ言語(L1)の影響を受けている大量のエラーが含まれていることが多い。
本稿ではL1とL2のペアに対して音素の混同(L2ではL1話者が強調される可能性が高い)を抽出する手法を提案する。
これらの混乱を生成モデル (Bi-Phone) にプラグインし、合成により劣化したL2テキストを生成する。
論文 参考訳(メタデータ) (2023-07-06T22:31:55Z) - Still no evidence for an effect of the proportion of non-native speakers
on language complexity -- A response to Kauhanen, Einhaus & Walkden (2023) [91.3755431537592]
Kauhanen, Einhaus & Walkden氏は、私の論文の1つで示された結果を批判している。
どちらの批判点も明確に述べられ、私の論文で分析されていることを示します。
論文 参考訳(メタデータ) (2023-04-29T09:58:32Z) - Bilingual by default: Voice Assistants and the role of code-switching in
creating a bilingual user experience [0.5047889990543175]
バイリンガルユーザのためのVAインタラクションにおいて直面する言語生産上の課題を強調した。
我々は、コードスイッチングのようなバイリンガル相互作用で見られる現象を促進することで、より包括的で改善されたユーザーエクスペリエンスを育むことができると論じる。
論文 参考訳(メタデータ) (2022-06-20T13:26:48Z) - Adapt-and-Adjust: Overcoming the Long-Tail Problem of Multilingual
Speech Recognition [58.849768879796905]
エンドツーエンドの多言語音声認識のためのトランスフォーマーベースマルチタスク学習フレームワークであるAdapt-and-Adjust (A2)を提案する。
A2フレームワークは,(1) 訓練済み多言語言語モデル (mBERT) を利用して低リソース言語の性能を向上させる,(2) 言語固有の適応と言語に依存しない2つのアダプタを最小限の追加パラメータで提案する,(3) クラス不均衡を克服する,という3つの手法で解決する。
論文 参考訳(メタデータ) (2020-12-03T03:46:16Z) - Acoustics Based Intent Recognition Using Discovered Phonetic Units for
Low Resource Languages [51.0542215642794]
本稿では,検出された音素単位を意図分類に用いる新しい音響に基づく意図認識システムを提案する。
我々は,2つの言語群 – インディカル言語とロマンス言語 – に対する2つの異なる意図認識タスクの結果を提示する。
論文 参考訳(メタデータ) (2020-11-07T00:35:31Z) - Speaker Independent and Multilingual/Mixlingual Speech-Driven Talking
Head Generation Using Phonetic Posteriorgrams [58.617181880383605]
そこで本研究では,音声後部グラフを用いた新しい手法を提案する。
我々の手法は手作りの特徴を必要とせず、近年の手法に比べてノイズに強い。
本モデルは,複数言語/混合言語音声を説得力のある入力としてサポートした最初のモデルである。
論文 参考訳(メタデータ) (2020-06-20T16:32:43Z) - Mental Workload and Language Production in Non-Native Speaker IPA
Interaction [12.021912017203842]
スマートフォンとスマートスピーカーを介して、ネイティブ(L1)と非ネイティブ(L2)の英語話者がIPAでタスクを完了させる混合設計実験を行った。
IPAの相互作用により,L2話者の心理的負荷が有意に増加した。
論文 参考訳(メタデータ) (2020-06-11T11:06:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。