論文の概要: Storyfier: Exploring Vocabulary Learning Support with Text Generation
Models
- arxiv url: http://arxiv.org/abs/2308.03864v1
- Date: Mon, 7 Aug 2023 18:25:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-09 15:13:47.992860
- Title: Storyfier: Exploring Vocabulary Learning Support with Text Generation
Models
- Title(参考訳): storyfier:テキスト生成モデルによる語彙学習サポートの検討
- Authors: Zhenhui Peng, Xingbo Wang, Qiushi Han, Junkai Zhu, Xiaojuan Ma, and
Huamin Qu
- Abstract要約: 本研究では,学習者の興味をひく対象語に対するコヒーレントな文脈を提供するために,Storyfierを開発した。
学習者は一般的に、生成したストーリーを目標語を接続し、学習負荷を緩和するための支援を書くのに好む。
読み書き学習セッションでは、AI機能のないベースラインツールで学習するよりも、Storyfierを使用する参加者は、リコールやターゲット語の使用でパフォーマンスが悪くなります。
- 参考スコア(独自算出の注目度): 52.58844741797822
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Vocabulary learning support tools have widely exploited existing materials,
e.g., stories or video clips, as contexts to help users memorize each target
word. However, these tools could not provide a coherent context for any target
words of learners' interests, and they seldom help practice word usage. In this
paper, we work with teachers and students to iteratively develop Storyfier,
which leverages text generation models to enable learners to read a generated
story that covers any target words, conduct a story cloze test, and use these
words to write a new story with adaptive AI assistance. Our within-subjects
study (N=28) shows that learners generally favor the generated stories for
connecting target words and writing assistance for easing their learning
workload. However, in the read-cloze-write learning sessions, participants
using Storyfier perform worse in recalling and using target words than learning
with a baseline tool without our AI features. We discuss insights into
supporting learning tasks with generative models.
- Abstract(参考訳): 語彙学習支援ツールは、ストーリーやビデオクリップなどの既存の素材を、ユーザーがそれぞれの単語を記憶するためのコンテキストとして広く利用してきた。
しかし、これらのツールは学習者の興味のある対象語に対して一貫した文脈を提供できず、単語の使用を実践することはほとんどなかった。
本稿では,教師や学生と協力して,テキスト生成モデルを活用したStoryfierを反復的に開発し,学習者が対象語をカバーし,ストーリークローゼテストを行い,これらの単語を用いて適応型AI支援による新しいストーリーを書けるようにする。
対象語を接続し,学習作業の負荷軽減を支援するために,学習者が生成した物語を概ね好んでいることを示す。
しかし、読み書き学習セッションでは、AI機能なしのベースラインツールで学習するよりも、Storyfierを使用する参加者は、リコールやターゲット語の使用においてパフォーマンスが悪くなっている。
生成モデルを用いた学習課題支援に関する洞察について論じる。
関連論文リスト
- SmartPhone: Exploring Keyword Mnemonic with Auto-generated Verbal and
Visual Cues [2.8047215329139976]
本稿では,キーワード・メニーモニックのための言語・視覚的手がかりの自動生成のためのエンドツーエンドパイプラインを提案する。
言語と視覚を自動生成するエンド・ツー・エンドのパイプラインである我々のアプローチは、覚えやすいキューを自動的に生成することができる。
論文 参考訳(メタデータ) (2023-05-11T20:58:10Z) - Semi-Supervised Lifelong Language Learning [81.0685290973989]
ラベル付きデータとラベルなしデータの両方を用いて、モデルが逐次到着する言語タスクを学習する、新しい半教師付き生涯言語学習(SSLL)について検討する。
特に、破滅的な忘れを軽減し、ラベルのないデータを活用するために2つのモジュールを設計するために、タスク固有のモジュールに特化しています。
各種言語課題に対する実験結果から,本モデルの有効性と,競争的ベースラインよりも優越性を示す。
論文 参考訳(メタデータ) (2022-11-23T15:51:33Z) - Unsupervised Neural Stylistic Text Generation using Transfer learning
and Adapters [66.17039929803933]
応答生成のためのスタイル特化属性を学習するために,モデルパラメータの0.3%しか更新しない新しい転送学習フレームワークを提案する。
我々はPERSONALITY-CAPTIONSデータセットからスタイル固有の属性を学習する。
論文 参考訳(メタデータ) (2022-10-07T00:09:22Z) - Leveraging Natural Supervision for Language Representation Learning and
Generation [8.083109555490475]
自然発生型監視を用いて,ニューラルネットワークのトレーニングと評価を改善するための3行の作業について述べる。
まず,NLPタスクに対する事前学習言語モデルの性能向上を支援するために,自己指導型学習損失について検討する。
文表現における意味論と構文のアンタングル化にパラフレーズペアを用いるフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-21T17:26:03Z) - An Attention-Based Model for Predicting Contextual Informativeness and
Curriculum Learning Applications [11.775048147405725]
文の指導的側面に着目し,文脈的情報度を推定するモデルを構築した。
対象単語に対する読者の理解に最も寄与する可能性のある文中の重要な文脈要素を,我々のモデルがいかに認識するかを示す。
我々は,人間と機械の学習者の両方に言語学習をサポートするアプリケーションに対して,新たな可能性を開くと信じている。
論文 参考訳(メタデータ) (2022-04-21T05:17:49Z) - Pedagogical Word Recommendation: A novel task and dataset on
personalized vocabulary acquisition for L2 learners [4.507860128918788]
Pedagogical Word Recommendation と呼ばれる新しいタスクのためのデータの提案と公開を行う。
PWRの主な目的は、学習者が既に見てきた他の単語に基づいて、ある学習者が与えられた単語を知っているかどうかを予測することである。
このITSの特徴として、学生は、自分たちが解決した質問から知らない単語を直接表示して、ワードブックを作成することができる。
論文 参考訳(メタデータ) (2021-12-27T17:52:48Z) - Latin writing styles analysis with Machine Learning: New approach to old
questions [0.0]
中世のテキストは、世代から世代までのコミュニケーション手段を用いて、心から学び、普及した。
ラテン語で書かれた文学の特定の構成を考慮に入れれば、特定の物語テキストの親しみやすい情報源の確率パターンを探索し、示すことができる。
論文 参考訳(メタデータ) (2021-09-01T20:21:45Z) - VidLanKD: Improving Language Understanding via Video-Distilled Knowledge
Transfer [76.3906723777229]
言語理解を改善するためのビデオ言語知識蒸留法VidLanKDを提案する。
我々は、ビデオテキストデータセット上でマルチモーダル教師モデルを訓練し、その知識をテキストデータセットを用いて学生言語モデルに伝達する。
我々の実験では、VidLanKDはテキストのみの言語モデルや発声モデルよりも一貫した改善を実現している。
論文 参考訳(メタデータ) (2021-07-06T15:41:32Z) - Watch and Learn: Mapping Language and Noisy Real-world Videos with
Self-supervision [54.73758942064708]
我々は、明示的なアノテーションを使わずに、文章と騒々しいビデオスニペットのマッピングを学習することで、視覚と自然言語を理解するように機械に教える。
トレーニングと評価のために、多数のオンラインビデオとサブタイトルを含む新しいデータセットApartmenTourをコントリビュートする。
論文 参考訳(メタデータ) (2020-11-19T03:43:56Z) - On Vocabulary Reliance in Scene Text Recognition [79.21737876442253]
ボキャブラリ内の単語を持つ画像に対して、手法は良好に機能するが、ボキャブラリ外の単語を持つ画像にはあまり一般化しない。
私たちはこの現象を「語彙依存」と呼んでいる。
本研究では,2家族のモデルが協調的に学習できるようにするための,シンプルで効果的な相互学習戦略を提案する。
論文 参考訳(メタデータ) (2020-05-08T11:16:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。