論文の概要: Is the Language Familiarity Effect gradual? A computational modelling
approach
- arxiv url: http://arxiv.org/abs/2206.13415v1
- Date: Mon, 27 Jun 2022 16:08:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-28 16:04:09.708337
- Title: Is the Language Familiarity Effect gradual? A computational modelling
approach
- Title(参考訳): 言語ファミリアリティは徐々に影響するのか?
計算モデリングのアプローチ
- Authors: Maureen de Seyssel, Guillaume Wisniewski and Emmanuel Dupoux
- Abstract要約: 本研究では、言語親和性効果のモデルを用いて、その効果の段階的な測定値が得られることを示す。
この効果は幅広い言語にまたがって再現され、その普遍性のさらなる証拠となる。
また,LFEの段階的尺度に基づいて,同じ家系に属する言語がLFEに与える影響を裏付ける結果を得た。
- 参考スコア(独自算出の注目度): 14.83230292969134
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: According to the Language Familiarity Effect (LFE), people are better at
discriminating between speakers of their native language. Although this
cognitive effect was largely studied in the literature, experiments have only
been conducted on a limited number of language pairs and their results only
show the presence of the effect without yielding a gradual measure that may
vary across language pairs. In this work, we show that the computational model
of LFE introduced by Thorburn, Feldmand and Schatz (2019) can address these two
limitations. In a first experiment, we attest to this model's capacity to
obtain a gradual measure of the LFE by replicating behavioural findings on
native and accented speech. In a second experiment, we evaluate LFE on a large
number of language pairs, including many which have never been tested on
humans. We show that the effect is replicated across a wide array of languages,
providing further evidence of its universality. Building on the gradual measure
of LFE, we also show that languages belonging to the same family yield smaller
scores, supporting the idea of an effect of language distance on LFE.
- Abstract(参考訳): LFE(Language Familiarity Effect)によると、人々は母国語話者の区別がより優れている。
この認知的効果は文献で主に研究されたが、実験は限られた数の言語対でのみ行われており、それらの結果は言語対間で変化しうる段階的な尺度を与えることなく効果の存在を示すだけである。
本研究では、Thorburn, Feldmand and Schatz (2019) によって導入された LFE の計算モデルが、これらの2つの制限に対処可能であることを示す。
最初の実験では、ネイティブ音声とアクセント音声の振る舞いを再現することにより、LFEの段階的な測定値を得ることができることを示す。
第2の実験では、多くの言語対においてLFEを評価する。
この効果は幅広い言語にまたがって再現され、その普遍性のさらなる証拠となる。
また,LFEの段階的尺度に基づいて,同族に属する言語がより少ないスコアを得られることを示し,LFEに対する言語距離の影響を裏付ける。
関連論文リスト
- What Linguistic Features and Languages are Important in LLM Translation? [4.888605304379589]
7BのLlama2モデルは、これまでに見たすべての言語に対して10 BLEUスコアを超える。
構文的類似性は、翻訳品質を決定する上で、必ずしも主要な言語要因ではない。
一部の言語は、英語よりも訓練データが少ないにもかかわらず、英語に匹敵する強い相関関係を示している。
論文 参考訳(メタデータ) (2024-02-21T16:32:38Z) - Quantifying the Dialect Gap and its Correlates Across Languages [69.18461982439031]
この研究は、明らかな相違を明らかにし、マインドフルなデータ収集を通じてそれらに対処する可能性のある経路を特定することによって、方言NLPの分野を強化する基盤となる。
論文 参考訳(メタデータ) (2023-10-23T17:42:01Z) - SLABERT Talk Pretty One Day: Modeling Second Language Acquisition with
BERT [0.0]
言語間移動は、話者の母語の言語構造が外国語の獲得に与える影響である。
我々はNLP文献が陰性移行現象に十分な注意を払っていないことを発見した。
そこで本研究では,TransformerベースのSLAモデルを用いたさらなる研究を提唱する。
論文 参考訳(メタデータ) (2023-05-31T06:22:07Z) - Relationship of the language distance to English ability of a country [0.0]
本稿では,言語間の意味的相違を測る新しい手法を提案する。
提案するセマンティック言語距離の有効性を実証的に検討する。
実験の結果, 言語距離は, 国の平均英語能力に負の影響を及ぼすことが示された。
論文 参考訳(メタデータ) (2022-11-15T02:40:00Z) - Cross-Lingual Ability of Multilingual Masked Language Models: A Study of
Language Structure [54.01613740115601]
本稿では,構成順序,構成,単語共起の3つの言語特性について検討する。
我々の主な結論は、構成順序と単語共起の寄与は限定的である一方、構成は言語間移動の成功にとってより重要であるということである。
論文 参考訳(メタデータ) (2022-03-16T07:09:35Z) - On the Language-specificity of Multilingual BERT and the Impact of
Fine-tuning [7.493779672689531]
multilingual BERT (mBERT) が獲得した知識は、言語固有のものと言語ニュートラルな2つのコンポーネントを持っている。
本稿では,2つのタスクの微調整の文脈において,それらの関係を解析する。
論文 参考訳(メタデータ) (2021-09-14T19:28:31Z) - On the Multilingual Capabilities of Very Large-Scale English Language
Models [0.0]
GPT(Generative Pre-trained Transformer)は、機械学習の歴史において、前例のない規模に拡張されている。
本研究では,GPT-3の多言語的スキルについて検討し,事前学習用コーパスであるカタルーニャ語にはほとんど現れない1つの言語に着目した。
このモデルでは、特に生成タスクにおいて、主に言語理解タスクでは予測可能な制限があるが、ゼロショットシナリオでは顕著な結果が得られる。
論文 参考訳(メタデータ) (2021-08-30T16:18:50Z) - AM2iCo: Evaluating Word Meaning in Context across Low-ResourceLanguages
with Adversarial Examples [51.048234591165155]
本稿では, AM2iCo, Adversarial and Multilingual Meaning in Contextを提案する。
言語間文脈における単語の意味の同一性を理解するために、最先端(SotA)表現モデルを忠実に評価することを目的としている。
その結果、現在のSotAプリトレーニングエンコーダは人間のパフォーマンスにかなり遅れていることが明らかとなった。
論文 参考訳(メタデータ) (2021-04-17T20:23:45Z) - On Negative Interference in Multilingual Models: Findings and A
Meta-Learning Treatment [59.995385574274785]
従来の信念に反して、負の干渉は低リソース言語にも影響を及ぼすことを示す。
メタ学習アルゴリズムは、より優れた言語間変換性を得、負の干渉を軽減する。
論文 参考訳(メタデータ) (2020-10-06T20:48:58Z) - Knowledge Distillation for Multilingual Unsupervised Neural Machine
Translation [61.88012735215636]
unsupervised neural machine translation (UNMT) は、最近、いくつかの言語対に対して顕著な結果を得た。
UNMTは単一の言語ペア間でのみ翻訳することができ、同時に複数の言語ペアに対して翻訳結果を生成することはできない。
本稿では,1つのエンコーダと1つのデコーダを用いて13言語間を翻訳する簡単な手法を実証的に紹介する。
論文 参考訳(メタデータ) (2020-04-21T17:26:16Z) - The Secret is in the Spectra: Predicting Cross-lingual Task Performance
with Spectral Similarity Measures [83.53361353172261]
本稿では,モノリンガル埋め込み空間の類似性とタスク性能の相関性に着目した大規模研究を行う。
2つの埋め込み空間間のいくつかの同型測度を導入し、それぞれのスペクトルの関連統計に基づく。
このようなスペクトル同型尺度から得られた言語類似度スコアは、異なる言語間タスクで観測された性能と強く関連していることを実証的に示す。
論文 参考訳(メタデータ) (2020-01-30T00:09:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。