論文の概要: Relationship of the language distance to English ability of a country
- arxiv url: http://arxiv.org/abs/2211.07855v1
- Date: Tue, 15 Nov 2022 02:40:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-16 15:20:18.979362
- Title: Relationship of the language distance to English ability of a country
- Title(参考訳): ある国の英語能力と言語距離の関係
- Authors: Cao Xinxin, Lei Xiaolan and Murtadha Ahmed
- Abstract要約: 本稿では,言語間の意味的相違を測る新しい手法を提案する。
提案するセマンティック言語距離の有効性を実証的に検討する。
実験の結果, 言語距離は, 国の平均英語能力に負の影響を及ぼすことが示された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Language difference is one of the factors that hinder the acquisition of
second language skills. In this article, we introduce a novel solution that
leverages the strength of deep neural networks to measure the semantic
dissimilarity between languages based on their word distributions in the
embedding space of the multilingual pre-trained language model (e.g.,BERT).
Then, we empirically examine the effectiveness of the proposed semantic
language distance (SLD) in explaining the consistent variation in English
ability of countries, which is proxied by their performance in the
Internet-Based Test of English as Foreign Language (TOEFL iBT). The
experimental results show that the language distance demonstrates negative
influence on a country's average English ability. Interestingly, the effect is
more significant on speaking and writing subskills, which pertain to the
productive aspects of language learning. Besides, we provide specific
recommendations for future research directions.
- Abstract(参考訳): 言語の違いは、第二言語スキルの獲得を妨げる要因のひとつです。
本稿では,多言語事前学習言語モデル(BERTなど)の埋め込み空間における単語分布に基づく言語間の意味的相違性を測定するために,深層ニューラルネットワークの強みを活用した新しい解を提案する。
そこで,提案する意味言語間距離 (sld) の有効性を実証的に検証し, 英語を外国語とするインターネットベーステスト (toefl ibt) の結果から, 各国の英語能力の一貫した変化を説明する。
実験の結果, 言語距離は, 国の平均英語能力に負の影響を及ぼすことが示された。
興味深いことに、この効果は、言語学習の生産的側面に関連する副スキルの発話と執筆に、より重要である。
また,今後の研究の方向性について具体的な提言を行う。
関連論文リスト
- Lens: Rethinking Multilingual Enhancement for Large Language Models [70.85065197789639]
Lensは、大規模言語モデル(LLM)の多言語機能を強化する新しいアプローチである
LLMの上位層から言語に依存しない、言語固有のサブ空間内の隠された表現を操作できる。
既存のポストトレーニング手法に比べて計算資源がはるかに少ないため、優れた結果が得られる。
論文 参考訳(メタデータ) (2024-10-06T08:51:30Z) - Assessing the Role of Lexical Semantics in Cross-lingual Transfer through Controlled Manipulations [15.194196775504613]
我々は、英語と対象言語の違いが、英語の事前訓練された表現空間と言語を整合させる能力にどのように影響するかを分析する。
文字や単語の順序などの特性はアライメント品質に限られた影響しか与えないが、翻訳エントロピーの尺度を用いて定義する2言語間の語彙マッチングの程度は、それに大きな影響を及ぼすことを示す。
論文 参考訳(メタデータ) (2024-08-14T14:59:20Z) - Multilingual Evaluation of Semantic Textual Relatedness [0.0]
意味的テクスト関係性(STR)は、言語的要素や話題、感情、視点といった非言語的要素を考慮して、表面的な単語重複を越えている。
以前のNLP研究は主に英語に焦点を合わせており、言語間の適用性を制限している。
Marathi、Hindi、スペイン語、英語でSTRを探索し、情報検索や機械翻訳などの可能性を解き放つ。
論文 参考訳(メタデータ) (2024-04-13T17:16:03Z) - Decomposed Prompting: Unveiling Multilingual Linguistic Structure
Knowledge in English-Centric Large Language Models [12.700783525558721]
GPT-3やLLaMAのような英語中心のLarge Language Models (LLM)は、多言語タスクを実行する素晴らしい能力を示している。
本稿では,シーケンスラベリングタスクにおいて,これらのLLMの言語構造理解を探索するための分解的プロンプト手法を提案する。
論文 参考訳(メタデータ) (2024-02-28T15:15:39Z) - Quantifying the Dialect Gap and its Correlates Across Languages [69.18461982439031]
この研究は、明らかな相違を明らかにし、マインドフルなデータ収集を通じてそれらに対処する可能性のある経路を特定することによって、方言NLPの分野を強化する基盤となる。
論文 参考訳(メタデータ) (2023-10-23T17:42:01Z) - Cross-Linguistic Syntactic Difference in Multilingual BERT: How Good is
It and How Does It Affect Transfer? [50.48082721476612]
マルチリンガルBERT (mBERT) は, 言語間シンタクティックな機能を示した。
我々は,mBERTから引き起こされる文法的関係の分布を,24言語に類型的に異なる文脈で検討した。
論文 参考訳(メタデータ) (2022-12-21T09:44:08Z) - Visual Grounding of Inter-lingual Word-Embeddings [6.136487946258519]
本研究では,単語埋め込みの言語間視覚的基盤について検討する。
実験では、英語、アラビア語、ドイツ語の3つの言語に焦点を当てています。
実験により,言語間知識が類似言語における接地埋め込みの性能を向上させることが示唆された。
論文 参考訳(メタデータ) (2022-09-08T11:18:39Z) - Cross-Lingual Ability of Multilingual Masked Language Models: A Study of
Language Structure [54.01613740115601]
本稿では,構成順序,構成,単語共起の3つの言語特性について検討する。
我々の主な結論は、構成順序と単語共起の寄与は限定的である一方、構成は言語間移動の成功にとってより重要であるということである。
論文 参考訳(メタデータ) (2022-03-16T07:09:35Z) - On the Language-specificity of Multilingual BERT and the Impact of
Fine-tuning [7.493779672689531]
multilingual BERT (mBERT) が獲得した知識は、言語固有のものと言語ニュートラルな2つのコンポーネントを持っている。
本稿では,2つのタスクの微調整の文脈において,それらの関係を解析する。
論文 参考訳(メタデータ) (2021-09-14T19:28:31Z) - AM2iCo: Evaluating Word Meaning in Context across Low-ResourceLanguages
with Adversarial Examples [51.048234591165155]
本稿では, AM2iCo, Adversarial and Multilingual Meaning in Contextを提案する。
言語間文脈における単語の意味の同一性を理解するために、最先端(SotA)表現モデルを忠実に評価することを目的としている。
その結果、現在のSotAプリトレーニングエンコーダは人間のパフォーマンスにかなり遅れていることが明らかとなった。
論文 参考訳(メタデータ) (2021-04-17T20:23:45Z) - Gender Bias in Multilingual Embeddings and Cross-Lingual Transfer [101.58431011820755]
多言語埋め込みにおけるジェンダーバイアスとNLPアプリケーションの伝達学習への影響について検討する。
我々は、バイアス分析のための多言語データセットを作成し、多言語表現におけるバイアスの定量化方法をいくつか提案する。
論文 参考訳(メタデータ) (2020-05-02T04:34:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。