論文の概要: Learning to Write Rationally: How Information Is Distributed in Non-Native Speakers' Essays
- arxiv url: http://arxiv.org/abs/2411.03550v1
- Date: Tue, 05 Nov 2024 23:09:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-07 19:23:50.660060
- Title: Learning to Write Rationally: How Information Is Distributed in Non-Native Speakers' Essays
- Title(参考訳): Rationallyを書くための学習:非Native Speakers' Essaysにおける情報分散の方法
- Authors: Zixin Tang, Janet G. van Hell,
- Abstract要約: 第二言語学習者によるエッセイと様々な母国語(L1)の背景を比較検討し,非母国語(L2)生産における情報の配布方法を検討した。
エントロピーレートの予備的・連続性の分析から,L2能力の高い作家は,情報的内容の伝達を継続しながら,言語生産の不確実性を低下させる可能性が示唆された。
- 参考スコア(独自算出の注目度): 1.5039745292757671
- License:
- Abstract: People tend to distribute information evenly in language production for better and clearer communication. In this study, we compared essays written by second language learners with various native language (L1) backgrounds to investigate how they distribute information in their non-native language (L2) production. Analyses of surprisal and constancy of entropy rate indicated that writers with higher L2 proficiency can reduce the expected uncertainty of language production while still conveying informative content. However, the uniformity of information distribution showed less variability among different groups of L2 speakers, suggesting that this feature may be universal in L2 essay writing and less affected by L2 writers' variability in L1 background and L2 proficiency.
- Abstract(参考訳): 人々はより良いコミュニケーションのために、言語生産において情報を均等に分配する傾向がある。
本研究では,第2言語学習者が書いたエッセイと様々な母国語(L1)の背景を比較検討し,非母国語(L2)生産における情報の配布方法を検討した。
エントロピーレートの予備的・連続性の分析から,L2能力の高い作家は,情報的内容の伝達を継続しながら,言語生産の不確実性を低下させる可能性が示唆された。
しかし、情報分布の均一性は、L2話者の異なるグループ間での多様性を低下させ、L2エッセイの執筆においてこの特徴は普遍的であり、L1背景におけるL2作家の多様性やL2習熟度の影響を受けない可能性が示唆された。
関連論文リスト
- LLM-based Translation Inference with Iterative Bilingual Understanding [45.00660558229326]
大規模言語モデル(LLM)の言語間機能に基づいた,新しい反復的バイリンガル理解翻訳法を提案する。
LLMの言語横断的能力により、ソース言語とターゲット言語を別々にコンテキスト理解することが可能になる。
提案したIBUTは、いくつかの強力な比較法より優れている。
論文 参考訳(メタデータ) (2024-10-16T13:21:46Z) - Faux Polyglot: A Study on Information Disparity in Multilingual Large Language Models [7.615938028813914]
Retrieval Augmented Generation (RAG)により、Large Language Models (LLM) は情報検索において重要な役割を担っている。
RAGに基づく情報検索において,LLMの言語的嗜好について検討した。
その結果,LLMは問合せ言語と同一言語における情報に対して,情報検索と回答生成の両方において,体系的な偏りを示した。
論文 参考訳(メタデータ) (2024-07-07T21:26:36Z) - FAC$^2$E: Better Understanding Large Language Model Capabilities by Dissociating Language and Cognition [56.76951887823882]
大規模言語モデル(LLM)は、主に様々なテキスト理解および生成タスクにおける全体的なパフォーマンスによって評価される。
FAC$2$E, FAC$2$Eについて述べる。
論文 参考訳(メタデータ) (2024-02-29T21:05:37Z) - Supervised Knowledge Makes Large Language Models Better In-context Learners [94.89301696512776]
大規模言語モデル(LLM)は、素早い工学を通して、文脈内学習能力の出現を示す。
自然言語理解と質問応答におけるLLMの一般化性と事実性の向上という課題は、まだ未解決のままである。
本研究では, LLM の信頼性を高める枠組みを提案する。1) 分布外データの一般化,2) 差別モデルによる LLM のメリットの解明,3) 生成タスクにおける幻覚の最小化。
論文 参考訳(メタデータ) (2023-12-26T07:24:46Z) - Language Representation Projection: Can We Transfer Factual Knowledge
across Languages in Multilingual Language Models? [48.88328580373103]
パラメータフリーの$textbfL$anguage $textbfR$epresentation $textbfP$rojection Module (LRP2)を提案する。
第1のモジュールは非英語の表現を英語のような同値に変換し、第2のモジュールは英語のような表現を対応する非英語の表現に戻す。
mLAMAデータセットによる実験結果から,LRP2は事実知識検索の精度を大幅に向上し,多種多様な非英語言語間の知識伝達を容易にすることが示された。
論文 参考訳(メタデータ) (2023-11-07T08:16:16Z) - Cross-Lingual Knowledge Editing in Large Language Models [73.12622532088564]
知識編集は、スクラッチから再学習することなく、大きな言語モデルを新しい知識に適応させることが示されている。
ソース言語編集が別のターゲット言語に与える影響は、いまだ不明である。
まず、ZsREを英語から中国語に翻訳することで、大規模な言語間合成データセットを収集する。
論文 参考訳(メタデータ) (2023-09-16T11:07:52Z) - X-PARADE: Cross-Lingual Textual Entailment and Information Divergence across Paragraphs [55.80189506270598]
X-PARADEは、段落レベルの情報の分岐の最初の言語間データセットである。
アノテーションは、対象言語における段落をスパンレベルでラベル付けし、ソース言語における対応する段落に対して評価する。
アライメントされた段落は、異なる言語のウィキペディアページから引用される。
論文 参考訳(メタデータ) (2023-09-16T04:34:55Z) - SLABERT Talk Pretty One Day: Modeling Second Language Acquisition with
BERT [0.0]
言語間移動は、話者の母語の言語構造が外国語の獲得に与える影響である。
我々はNLP文献が陰性移行現象に十分な注意を払っていないことを発見した。
そこで本研究では,TransformerベースのSLAモデルを用いたさらなる研究を提唱する。
論文 参考訳(メタデータ) (2023-05-31T06:22:07Z) - Understanding Translationese in Cross-Lingual Summarization [106.69566000567598]
言語間要約(MS)は、異なる対象言語で簡潔な要約を生成することを目的としている。
大規模なCLSデータを集めるために、既存のデータセットは通常、それらの生成に翻訳を伴います。
本稿では、まず、CLSデータセット構築の異なるアプローチが、異なるレベルの翻訳に結びつくことを確認する。
論文 参考訳(メタデータ) (2022-12-14T13:41:49Z) - A bifurcation threshold for contact-induced language change [0.0]
本稿では,強化学習と非線形力学に基づく,そのような状況の数学的モデルを提案する。
このモデルは、アフリカーンのモルフォロジーレベルリングと、アフロ・ペルー・スペイン語におけるヌル人の浸食という2つのケーススタディの助けを借りて評価された。
論文 参考訳(メタデータ) (2021-11-23T18:21:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。