論文の概要: Automatically Suggesting Diverse Example Sentences for L2 Japanese Learners Using Pre-Trained Language Models
- arxiv url: http://arxiv.org/abs/2506.03580v1
- Date: Wed, 04 Jun 2025 05:13:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-05 21:20:14.161338
- Title: Automatically Suggesting Diverse Example Sentences for L2 Japanese Learners Using Pre-Trained Language Models
- Title(参考訳): 事前学習型言語モデルを用いたL2日本語学習者の多元文の自動提案
- Authors: Enrico Benedetti, Akiko Aizawa, Florian Boudin,
- Abstract要約: 本研究では,L2日本語学習者を対象とした例文作成にPLM(Pre-trained Language Models)を用いることを検討した。
日本語,母語話者,GPT-4の学習者からなるラッカーのパネルを用いて,難易度,多様性,自然度などの複数の側面を考慮した文質の評価を行った。
- 参考スコア(独自算出の注目度): 29.400532173806834
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Providing example sentences that are diverse and aligned with learners' proficiency levels is essential for fostering effective language acquisition. This study examines the use of Pre-trained Language Models (PLMs) to produce example sentences targeting L2 Japanese learners. We utilize PLMs in two ways: as quality scoring components in a retrieval system that draws from a newly curated corpus of Japanese sentences, and as direct sentence generators using zero-shot learning. We evaluate the quality of sentences by considering multiple aspects such as difficulty, diversity, and naturalness, with a panel of raters consisting of learners of Japanese, native speakers -- and GPT-4. Our findings suggest that there is inherent disagreement among participants on the ratings of sentence qualities, except for difficulty. Despite that, the retrieval approach was preferred by all evaluators, especially for beginner and advanced target proficiency, while the generative approaches received lower scores on average. Even so, our experiments highlight the potential for using PLMs to enhance the adaptability of sentence suggestion systems and therefore improve the language learning journey.
- Abstract(参考訳): 学習者の習熟度に整合した多様で多様な例文を提供することは,効果的な言語習得の促進に不可欠である。
本研究では,L2日本語学習者を対象とした例文作成にPLM(Pre-trained Language Models)を用いることを検討した。
本研究では,日本語文の新たなコーパスから抽出する検索システムにおける品質スコアリングの要素として,ゼロショット学習を用いた直接文生成装置としてPLMを利用する。
日本語,母語話者,GPT-4の学習者からなるラッカーのパネルを用いて,難易度,多様性,自然度などの複数の側面を考慮した文質の評価を行った。
本研究は, 文質評価において, 難易度以外は, 被験者間に相違があることを示唆する。
それにもかかわらず、検索手法はすべての評価者、特に初心者や高度な目標能力に好まれ、生成的アプローチは平均よりも低いスコアを得た。
それでも,本実験は,文提案システムの適応性を高め,言語学習の道程を改善するために,PLMを使うことの可能性を強調した。
関連論文リスト
- Prompting ChatGPT for Chinese Learning as L2: A CEFR and EBCL Level Study [0.45060992929802196]
本研究では,Large Language Models (LLM) をパーソナライズしたチャットボットとして利用するために,学習者が特定のプロンプトを使用する方法について検討する。
我々のゴールは、高周波文字リストを用いて口語と書字のスキルを統合するプロンプトを開発することであり、口語辞書の制作を制御することである。
その結果,レベルA1およびレベルA1+文字と関連する参照リストを組み込むことで,EBCL文字集合への準拠が著しく向上することが示唆された。
論文 参考訳(メタデータ) (2025-01-25T15:30:13Z) - PromptRefine: Enhancing Few-Shot Performance on Low-Resource Indic Languages with Example Selection from Related Example Banks [57.86928556668849]
大規模言語モデル(LLM)は、近ごろ、コンテキスト内学習(ICL)を通じて、印象的な数ショットの学習能力を実証した。
ICLのパフォーマンスは、数発のデモの選択に大きく依存しており、最も最適な例の選択は永続的な研究課題である。
本稿では,低リソースのIndic言語におけるICLの性能向上を目的とした,新しい代替最小化手法であるPromptRefineを提案する。
論文 参考訳(メタデータ) (2024-12-07T17:51:31Z) - XAMPLER: Learning to Retrieve Cross-Lingual In-Context Examples [64.79218405438871]
XAMPLER: 言語横断学習の課題に対処するための手法であるクロス言語実例検索法を紹介する。
XAMPLERはまず、多言語小言語モデルであるGlot500に基づいてレトリバーを訓練する。
ターゲット言語の文脈内学習の例として、英語の例を直接検索することができる。
論文 参考訳(メタデータ) (2024-05-08T15:13:33Z) - Evaluating Prompting Strategies for Grammatical Error Correction Based
on Language Proficiency [3.848964608707635]
オーバーコレクションは,習熟度A(初心者レベル)と習熟度B(中間レベル)ではなく,先進言語学習者の書記(習熟度C)で主に発生する。
微調整のLLMや、英語学習者の例を書いている数発のショットでさえ、実際にはリコール対策の低下を示す傾向にある。
論文 参考訳(メタデータ) (2024-02-24T23:17:56Z) - Leveraging Multi-lingual Positive Instances in Contrastive Learning to
Improve Sentence Embedding [17.12010497289781]
複数の正の活用は多言語文の埋め込みに考慮すべきである,と我々は主張する。
本稿では,多言語文埋め込みの学習を改善するために,MPCLという新しい手法を提案する。
論文 参考訳(メタデータ) (2023-09-16T08:54:30Z) - Linguistically-driven Multi-task Pre-training for Low-resource Neural
Machine Translation [31.225252462128626]
本稿では,日本語を母語とする言語対に対する日本語固有のシーケンス to sequence (JASS) と,英語を含む言語対に対する英語固有のシーケンス to sequence (ENSS) を提案する。
JASSは文節(ぶんせつ)として知られる日本語単位のマスキングとリオーダーに重点を置いており、ENSSは句構造マスキングとリオーダータスクに基づいて提案されている。
論文 参考訳(メタデータ) (2022-01-20T09:10:08Z) - On Cross-Lingual Retrieval with Multilingual Text Encoders [51.60862829942932]
言語間文書・文検索タスクにおける最先端多言語エンコーダの適合性について検討する。
教師なしのアドホック文と文書レベルのCLIR実験でそれらの性能をベンチマークする。
我々は、ゼロショット言語とドメイン転送CLIR実験のシリーズにおける英語関連データに基づいて、教師付き方式で微調整された多言語エンコーダの評価を行った。
論文 参考訳(メタデータ) (2021-12-21T08:10:27Z) - Towards Lifelong Learning of Multilingual Text-To-Speech Synthesis [87.75833205560406]
本研究は,多言語テキスト音声(TTS)システムを学習するための生涯学習手法を提案する。
すべての言語からプールされたデータを必要としないため、ストレージと計算の負担が軽減される。
論文 参考訳(メタデータ) (2021-10-09T07:00:38Z) - Curious Case of Language Generation Evaluation Metrics: A Cautionary
Tale [52.663117551150954]
イメージキャプションや機械翻訳などのタスクを評価するデファクトメトリクスとして、いくつかの一般的な指標が残っている。
これは、使いやすさが原因でもあり、また、研究者がそれらを見て解釈する方法を知りたがっているためでもある。
本稿では,モデルの自動評価方法について,コミュニティにより慎重に検討するよう促す。
論文 参考訳(メタデータ) (2020-10-26T13:57:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。