論文の概要: Is the Language Familiarity Effect gradual? A computational modelling
approach
- arxiv url: http://arxiv.org/abs/2206.13415v1
- Date: Mon, 27 Jun 2022 16:08:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-28 16:04:09.708337
- Title: Is the Language Familiarity Effect gradual? A computational modelling
approach
- Title(参考訳): 言語ファミリアリティは徐々に影響するのか?
計算モデリングのアプローチ
- Authors: Maureen de Seyssel, Guillaume Wisniewski and Emmanuel Dupoux
- Abstract要約: 本研究では、言語親和性効果のモデルを用いて、その効果の段階的な測定値が得られることを示す。
この効果は幅広い言語にまたがって再現され、その普遍性のさらなる証拠となる。
また,LFEの段階的尺度に基づいて,同じ家系に属する言語がLFEに与える影響を裏付ける結果を得た。
- 参考スコア(独自算出の注目度): 14.83230292969134
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: According to the Language Familiarity Effect (LFE), people are better at
discriminating between speakers of their native language. Although this
cognitive effect was largely studied in the literature, experiments have only
been conducted on a limited number of language pairs and their results only
show the presence of the effect without yielding a gradual measure that may
vary across language pairs. In this work, we show that the computational model
of LFE introduced by Thorburn, Feldmand and Schatz (2019) can address these two
limitations. In a first experiment, we attest to this model's capacity to
obtain a gradual measure of the LFE by replicating behavioural findings on
native and accented speech. In a second experiment, we evaluate LFE on a large
number of language pairs, including many which have never been tested on
humans. We show that the effect is replicated across a wide array of languages,
providing further evidence of its universality. Building on the gradual measure
of LFE, we also show that languages belonging to the same family yield smaller
scores, supporting the idea of an effect of language distance on LFE.
- Abstract(参考訳): LFE(Language Familiarity Effect)によると、人々は母国語話者の区別がより優れている。
この認知的効果は文献で主に研究されたが、実験は限られた数の言語対でのみ行われており、それらの結果は言語対間で変化しうる段階的な尺度を与えることなく効果の存在を示すだけである。
本研究では、Thorburn, Feldmand and Schatz (2019) によって導入された LFE の計算モデルが、これらの2つの制限に対処可能であることを示す。
最初の実験では、ネイティブ音声とアクセント音声の振る舞いを再現することにより、LFEの段階的な測定値を得ることができることを示す。
第2の実験では、多くの言語対においてLFEを評価する。
この効果は幅広い言語にまたがって再現され、その普遍性のさらなる証拠となる。
また,LFEの段階的尺度に基づいて,同族に属する言語がより少ないスコアを得られることを示し,LFEに対する言語距離の影響を裏付ける。
関連論文リスト
- The Lou Dataset -- Exploring the Impact of Gender-Fair Language in German Text Classification [57.06913662622832]
ジェンダーフェア言語は、すべての性別に対処したり、中立形を使用することによって包摂性を促進する。
ジェンダーフェア言語はラベルを反転させ、確実性を減らし、注意パターンを変化させることで予測に大きな影響を及ぼす。
ドイツ語のテキスト分類への影響について最初の知見を提供する一方で、他の言語にもその知見が当てはまる可能性が高い。
論文 参考訳(メタデータ) (2024-09-26T15:08:17Z) - Assessing Code Generation with Intermediate Languages [6.999311675957218]
本研究では、様々なプログラミング言語、自然言語ソリューション、擬似コードを含む中間言語の利用について検討する。
以上の結果から, 中間言語は一般に, 最先端性能を達成できていない大規模モデルにおいて, 高い有効性を示すことが明らかとなった。
論文 参考訳(メタデータ) (2024-07-07T15:35:41Z) - Quantifying the Dialect Gap and its Correlates Across Languages [69.18461982439031]
この研究は、明らかな相違を明らかにし、マインドフルなデータ収集を通じてそれらに対処する可能性のある経路を特定することによって、方言NLPの分野を強化する基盤となる。
論文 参考訳(メタデータ) (2023-10-23T17:42:01Z) - SLABERT Talk Pretty One Day: Modeling Second Language Acquisition with
BERT [0.0]
言語間移動は、話者の母語の言語構造が外国語の獲得に与える影響である。
我々はNLP文献が陰性移行現象に十分な注意を払っていないことを発見した。
そこで本研究では,TransformerベースのSLAモデルを用いたさらなる研究を提唱する。
論文 参考訳(メタデータ) (2023-05-31T06:22:07Z) - Relationship of the language distance to English ability of a country [0.0]
本稿では,言語間の意味的相違を測る新しい手法を提案する。
提案するセマンティック言語距離の有効性を実証的に検討する。
実験の結果, 言語距離は, 国の平均英語能力に負の影響を及ぼすことが示された。
論文 参考訳(メタデータ) (2022-11-15T02:40:00Z) - Cross-Lingual Ability of Multilingual Masked Language Models: A Study of
Language Structure [54.01613740115601]
本稿では,構成順序,構成,単語共起の3つの言語特性について検討する。
我々の主な結論は、構成順序と単語共起の寄与は限定的である一方、構成は言語間移動の成功にとってより重要であるということである。
論文 参考訳(メタデータ) (2022-03-16T07:09:35Z) - On the Language-specificity of Multilingual BERT and the Impact of
Fine-tuning [7.493779672689531]
multilingual BERT (mBERT) が獲得した知識は、言語固有のものと言語ニュートラルな2つのコンポーネントを持っている。
本稿では,2つのタスクの微調整の文脈において,それらの関係を解析する。
論文 参考訳(メタデータ) (2021-09-14T19:28:31Z) - On the Multilingual Capabilities of Very Large-Scale English Language
Models [0.0]
GPT(Generative Pre-trained Transformer)は、機械学習の歴史において、前例のない規模に拡張されている。
本研究では,GPT-3の多言語的スキルについて検討し,事前学習用コーパスであるカタルーニャ語にはほとんど現れない1つの言語に着目した。
このモデルでは、特に生成タスクにおいて、主に言語理解タスクでは予測可能な制限があるが、ゼロショットシナリオでは顕著な結果が得られる。
論文 参考訳(メタデータ) (2021-08-30T16:18:50Z) - On Negative Interference in Multilingual Models: Findings and A
Meta-Learning Treatment [59.995385574274785]
従来の信念に反して、負の干渉は低リソース言語にも影響を及ぼすことを示す。
メタ学習アルゴリズムは、より優れた言語間変換性を得、負の干渉を軽減する。
論文 参考訳(メタデータ) (2020-10-06T20:48:58Z) - Knowledge Distillation for Multilingual Unsupervised Neural Machine
Translation [61.88012735215636]
unsupervised neural machine translation (UNMT) は、最近、いくつかの言語対に対して顕著な結果を得た。
UNMTは単一の言語ペア間でのみ翻訳することができ、同時に複数の言語ペアに対して翻訳結果を生成することはできない。
本稿では,1つのエンコーダと1つのデコーダを用いて13言語間を翻訳する簡単な手法を実証的に紹介する。
論文 参考訳(メタデータ) (2020-04-21T17:26:16Z) - The Secret is in the Spectra: Predicting Cross-lingual Task Performance
with Spectral Similarity Measures [83.53361353172261]
本稿では,モノリンガル埋め込み空間の類似性とタスク性能の相関性に着目した大規模研究を行う。
2つの埋め込み空間間のいくつかの同型測度を導入し、それぞれのスペクトルの関連統計に基づく。
このようなスペクトル同型尺度から得られた言語類似度スコアは、異なる言語間タスクで観測された性能と強く関連していることを実証的に示す。
論文 参考訳(メタデータ) (2020-01-30T00:09:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。