論文の概要: See what I'm saying? Comparing Intelligent Personal Assistant use for
Native and Non-Native Language Speakers
- arxiv url: http://arxiv.org/abs/2006.06328v1
- Date: Thu, 11 Jun 2020 11:03:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 14:16:34.403404
- Title: See what I'm saying? Comparing Intelligent Personal Assistant use for
Native and Non-Native Language Speakers
- Title(参考訳): 何言ってるか分かるか?
ネイティブおよび非ネイティブ言語話者の知的パーソナルアシスタント使用の比較
- Authors: Yunhan Wu, Daniel Rough, Anna Bleakley, Justin Edwards, Orla Cooney,
Philip R. Doyle, Leigh Clark, and Benjamin R. Cowan
- Abstract要約: IPAが現在どのようにユーザをサポートするか、あるいは妨げているかを理解することを目的としています。
インタビューの結果,L2話者は言語的制限に対する発話計画に優先していたことが明らかとなった。
L2話者はIPAを言語的ニーズに敏感であるとみなし、相互作用が失敗する。
我々は,言語生産の負担を軽減しつつ,視覚的フィードバックを重視しながら,L2ユーザのためのIPA体験をカスタマイズする必要性について論じる。
- 参考スコア(独自算出の注目度): 12.021912017203842
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Limited linguistic coverage for Intelligent Personal Assistants (IPAs) means
that many interact in a non-native language. Yet we know little about how IPAs
currently support or hinder these users. Through native (L1) and non-native
(L2) English speakers interacting with Google Assistant on a smartphone and
smart speaker, we aim to understand this more deeply. Interviews revealed that
L2 speakers prioritised utterance planning around perceived linguistic
limitations, as opposed to L1 speakers prioritising succinctness because of
system limitations. L2 speakers see IPAs as insensitive to linguistic needs
resulting in failed interaction. L2 speakers clearly preferred using
smartphones, as visual feedback supported diagnoses of communication breakdowns
whilst allowing time to process query results. Conversely, L1 speakers
preferred smart speakers, with audio feedback being seen as sufficient. We
discuss the need to tailor the IPA experience for L2 users, emphasising visual
feedback whilst reducing the burden of language production.
- Abstract(参考訳): 知的パーソナルアシスタント(IPAs)の限定言語カバレッジは、多くの人が非ネイティブ言語で対話することを意味する。
しかし、現在のIPAがこれらのユーザーをどのようにサポートしたり妨げたりするかについてはほとんどわかっていません。
ネイティブ(L1)と非ネイティブ(L2)の英語話者がスマートフォンとスマートスピーカーでGoogleアシスタントと対話することで、より深く理解することを目指している。
インタビューの結果,L2話者は言語的制限に対する発話計画に優先しており,L1話者はシステム制限のために簡潔さを優先していた。
L2話者はIPAを言語的ニーズに敏感であるとみなし、相互作用が失敗する。
視覚フィードバックは、クエリ結果を処理する時間を確保しながら、コミュニケーション障害の診断をサポートするため、l2スピーカーは明らかにスマートフォンを使うのを好んだ。
逆に、l1スピーカーはスマートスピーカーを好み、オーディオフィードバックは十分と見なされている。
我々は,言語生産の負担を軽減しつつ,視覚的フィードバックを重視しながら,L2ユーザのためのIPA体験をカスタマイズする必要性について論じる。
関連論文リスト
- How do Large Language Models Handle Multilingualism? [87.06210331315451]
大規模言語モデル(LLM)は、様々な言語で顕著な性能を示す。
LLMの多言語入力処理を記述したフレームワークを提案する。
さらに,特定の言語処理における言語特異的ニューロンの存在について検討する。
論文 参考訳(メタデータ) (2024-02-29T02:55:26Z) - Task-Agnostic Low-Rank Adapters for Unseen English Dialects [52.88554155235167]
LLM(Large Language Models)は、標準アメリカ英語を好んで不均等に重み付けされたコーパスで訓練される。
HyperLoRAは、方言特化情報と方言横断情報を混同することにより、タスクに依存しない方法で未確認の方言への一般化を改善する。
論文 参考訳(メタデータ) (2023-11-02T01:17:29Z) - L1-aware Multilingual Mispronunciation Detection Framework [10.15106073866792]
本稿では,L1-Aware 音声表現に富んだ多言語MDDアーキテクチャ L1-MultiMDDを提案する。
入力信号とその対応する基準音素シーケンスに基づいて、エンドツーエンドの音声エンコーダを訓練する。
実験では、L1-MultiMDDフレームワークが、L2-ARTIC、LATIC、AraVoiceL2v2と、EpaDBとSpeechocean762データセットの両方で有効であることを示した。
論文 参考訳(メタデータ) (2023-09-14T13:53:17Z) - BiPhone: Modeling Inter Language Phonetic Influences in Text [12.405907573933378]
テクノロジーの非対称性のため、リテラシーの低い言語でWebを使わざるを得ない人は多い。
そのようなユーザから第2言語(L2)で書かれたテキストには、ネイティブ言語(L1)の影響を受けている大量のエラーが含まれていることが多い。
本稿ではL1とL2のペアに対して音素の混同(L2ではL1話者が強調される可能性が高い)を抽出する手法を提案する。
これらの混乱を生成モデル (Bi-Phone) にプラグインし、合成により劣化したL2テキストを生成する。
論文 参考訳(メタデータ) (2023-07-06T22:31:55Z) - Still no evidence for an effect of the proportion of non-native speakers
on language complexity -- A response to Kauhanen, Einhaus & Walkden (2023) [91.3755431537592]
Kauhanen, Einhaus & Walkden氏は、私の論文の1つで示された結果を批判している。
どちらの批判点も明確に述べられ、私の論文で分析されていることを示します。
論文 参考訳(メタデータ) (2023-04-29T09:58:32Z) - Unravelling Interlanguage Facts via Explainable Machine Learning [10.71581852108984]
我々は、説明可能な機械学習アルゴリズムによって訓練されたNLI分類器の内部に焦点をあてる。
我々は、この視点を用いて、NLIと相補的なタスクの両方に対処し、テキストがネイティブまたは非ネイティブ話者によって書かれたかどうかを推測する。
話者のL1を最も示唆する2つの課題を解くのに最も有効な言語特性について検討する。
論文 参考訳(メタデータ) (2022-08-02T14:05:15Z) - Bilingual by default: Voice Assistants and the role of code-switching in
creating a bilingual user experience [0.5047889990543175]
バイリンガルユーザのためのVAインタラクションにおいて直面する言語生産上の課題を強調した。
我々は、コードスイッチングのようなバイリンガル相互作用で見られる現象を促進することで、より包括的で改善されたユーザーエクスペリエンスを育むことができると論じる。
論文 参考訳(メタデータ) (2022-06-20T13:26:48Z) - Adapt-and-Adjust: Overcoming the Long-Tail Problem of Multilingual
Speech Recognition [58.849768879796905]
エンドツーエンドの多言語音声認識のためのトランスフォーマーベースマルチタスク学習フレームワークであるAdapt-and-Adjust (A2)を提案する。
A2フレームワークは,(1) 訓練済み多言語言語モデル (mBERT) を利用して低リソース言語の性能を向上させる,(2) 言語固有の適応と言語に依存しない2つのアダプタを最小限の追加パラメータで提案する,(3) クラス不均衡を克服する,という3つの手法で解決する。
論文 参考訳(メタデータ) (2020-12-03T03:46:16Z) - Acoustics Based Intent Recognition Using Discovered Phonetic Units for
Low Resource Languages [51.0542215642794]
本稿では,検出された音素単位を意図分類に用いる新しい音響に基づく意図認識システムを提案する。
我々は,2つの言語群 – インディカル言語とロマンス言語 – に対する2つの異なる意図認識タスクの結果を提示する。
論文 参考訳(メタデータ) (2020-11-07T00:35:31Z) - Speaker Independent and Multilingual/Mixlingual Speech-Driven Talking
Head Generation Using Phonetic Posteriorgrams [58.617181880383605]
そこで本研究では,音声後部グラフを用いた新しい手法を提案する。
我々の手法は手作りの特徴を必要とせず、近年の手法に比べてノイズに強い。
本モデルは,複数言語/混合言語音声を説得力のある入力としてサポートした最初のモデルである。
論文 参考訳(メタデータ) (2020-06-20T16:32:43Z) - Mental Workload and Language Production in Non-Native Speaker IPA
Interaction [12.021912017203842]
スマートフォンとスマートスピーカーを介して、ネイティブ(L1)と非ネイティブ(L2)の英語話者がIPAでタスクを完了させる混合設計実験を行った。
IPAの相互作用により,L2話者の心理的負荷が有意に増加した。
論文 参考訳(メタデータ) (2020-06-11T11:06:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。