論文の概要: SRS-Stories: Vocabulary-constrained multilingual story generation for language learning
- arxiv url: http://arxiv.org/abs/2512.18362v1
- Date: Sat, 20 Dec 2025 13:24:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-23 18:54:32.304654
- Title: SRS-Stories: Vocabulary-constrained multilingual story generation for language learning
- Title(参考訳): SRS-Stories:言語学習のための語彙制約付き多言語物語生成
- Authors: Wiktor Kamzela, Mateusz Lango, Ondrej Dusek,
- Abstract要約: 言語学習者にパーソナライズされたストーリを生成するために,大きな言語モデルを使用します。
生成されたストーリーは読みやすく、語彙のレビュー/学習はスペースド・リピーション・システムによって最適化される。
実験は、英語、中国語、ポーランド語の3つの言語で行われ、3つのストーリー生成方法と語彙制約を強制するための3つの戦略が評価されている。
- 参考スコア(独自算出の注目度): 11.74705488416253
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we use large language models to generate personalized stories for language learners, using only the vocabulary they know. The generated texts are specifically written to teach the user new vocabulary by simply reading stories where it appears in context, while at the same time seamlessly reviewing recently learned vocabulary. The generated stories are enjoyable to read and the vocabulary reviewing/learning is optimized by a Spaced Repetition System. The experiments are conducted in three languages: English, Chinese and Polish, evaluating three story generation methods and three strategies for enforcing lexical constraints. The results show that the generated stories are more grammatical, coherent, and provide better examples of word usage than texts generated by the standard constrained beam search approach
- Abstract(参考訳): 本稿では,言語学習者に対して,単語のみを用いて,大規模言語モデルを用いて個人化された物語を生成する。
生成されたテキストは、コンテキストに現れるストーリーを読み取るだけで、ユーザが最近学んだ語彙をシームレスにレビューすることで、ユーザに新しい語彙を教えるために特別に書かれています。
生成されたストーリーは読みやすく、語彙のレビュー/学習はスペースド・リピーション・システムによって最適化される。
実験は、英語、中国語、ポーランド語の3つの言語で行われ、3つのストーリー生成方法と語彙制約を強制するための3つの戦略が評価されている。
その結果, 標準制約ビーム探索法により生成したテキストよりも, 生成したストーリの方が文法的, 一貫性があり, 単語使用例がよいことがわかった。
関連論文リスト
- GenQuest: An LLM-based Text Adventure Game for Language Learners [10.042666690718123]
GenQuestはLarge Language Models(LLMs)を利用したジェネレーションテキストアドベンチャーゲームである。
このシステムは、英語を外国語(EFL)学習者として、コラボレーティブな "choose-Your-own-adventure" スタイルの物語に携わる。
ストーリーコヒーレンスを維持するために、分岐決定点やストーリーマイルストーンのようなゲームメカニックが組み込まれている。
論文 参考訳(メタデータ) (2025-10-06T05:22:53Z) - VLog: Video-Language Models by Generative Retrieval of Narration Vocabulary [18.702223561537643]
VLogはビデオナレーションを語彙として定義するビデオ理解フレームワークである。
軽量言語モデル GPT-2 上に構築されたVLog には,3つの重要なイノベーションがある。
コードはhttps://github.com/showlab/VLog.comで公開されている。
論文 参考訳(メタデータ) (2025-03-12T13:53:30Z) - Generating Continuations in Multilingual Idiomatic Contexts [2.0849578298972835]
非合成図形テキストを含むニュアンス言語理解における生成言語モデル(LM)の能力を検証する。
3つの異なるトレーニング設定の下で、2つの異なる言語(英語とポルトガル語)でデータセットを使用して実験を行う。
以上の結果から,本モデルでは慣用的文脈よりも文脈の連続性をわずかに向上し,マージンが極端に小さいことが示唆された。
論文 参考訳(メタデータ) (2023-10-31T05:40:33Z) - Storyfier: Exploring Vocabulary Learning Support with Text Generation
Models [52.58844741797822]
本研究では,学習者の興味をひく対象語に対するコヒーレントな文脈を提供するために,Storyfierを開発した。
学習者は一般的に、生成したストーリーを目標語を接続し、学習負荷を緩和するための支援を書くのに好む。
読み書き学習セッションでは、AI機能のないベースラインツールで学習するよりも、Storyfierを使用する参加者は、リコールやターゲット語の使用でパフォーマンスが悪くなります。
論文 参考訳(メタデータ) (2023-08-07T18:25:00Z) - The Next Chapter: A Study of Large Language Models in Storytelling [51.338324023617034]
大規模言語モデル(LLM)を用いたプロンプトベース学習の適用は,自然言語処理(NLP)タスクにおいて顕著な性能を示した。
本稿では,LLMのストーリー生成能力と最近のモデルを比較するために,自動評価と人的評価の両方を利用した総合的な調査を行う。
その結果、LLMは他のストーリー生成モデルと比較して、非常に高い品質のストーリーを生成することがわかった。
論文 参考訳(メタデータ) (2023-01-24T02:44:02Z) - Beyond Contrastive Learning: A Variational Generative Model for
Multilingual Retrieval [109.62363167257664]
本稿では,多言語テキスト埋め込み学習のための生成モデルを提案する。
我々のモデルは、$N$言語で並列データを操作する。
本手法は, 意味的類似性, ビットクストマイニング, 言語間質問検索などを含む一連のタスクに対して評価を行う。
論文 参考訳(メタデータ) (2022-12-21T02:41:40Z) - Robust Preference Learning for Storytelling via Contrastive
Reinforcement Learning [53.92465205531759]
制御された自動ストーリ生成は、自然言語批判や嗜好から制約を満たす自然言語ストーリを生成することを目指している。
対照的なバイエンコーダモデルをトレーニングし、ストーリーを人間の批評と整合させ、汎用的な嗜好モデルを構築する。
我々はさらに、ストーリー生成の堅牢性を高めるために、プロンプトラーニング技術を用いて、対照的な報酬モデルを微調整する。
論文 参考訳(メタデータ) (2022-10-14T13:21:33Z) - Exposing Cross-Lingual Lexical Knowledge from Multilingual Sentence
Encoders [85.80950708769923]
本稿では,多言語言語モデルを用いて,それらのパラメータに格納された言語間語彙の知識量を探索し,元の多言語LMと比較する。
また、この知識を付加的に微調整した多言語モデルにより公開する新しい手法も考案した。
標準ベンチマークの大幅な向上を報告します。
論文 参考訳(メタデータ) (2022-04-30T13:23:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。