論文の概要: Broccoli: Sprinkling Lightweight Vocabulary Learning into Everyday
Information Diets
- arxiv url: http://arxiv.org/abs/2104.07941v1
- Date: Fri, 16 Apr 2021 07:38:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-19 14:18:01.160375
- Title: Broccoli: Sprinkling Lightweight Vocabulary Learning into Everyday
Information Diets
- Title(参考訳): broccoli: 軽量な語彙学習から日常の情報ダイエットへ
- Authors: Roland Aydin, Lars Klein, Arnaud Miribel, Robert West
- Abstract要約: Broccoliは、ユーザーの日常的な情報ダイエットに語彙学習をシームレスに組み込むことで、必要な労力を削減することを目的とした新しいパラダイムです。
軽量Broccoliアプローチの有効性は,従来の記憶に基づく語彙学習と競合することがわかった。
- 参考スコア(独自算出の注目度): 3.305377595864778
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The learning of a new language remains to this date a cognitive task that
requires considerable diligence and willpower, recent advances and tools
notwithstanding. In this paper, we propose Broccoli, a new paradigm aimed at
reducing the required effort by seamlessly embedding vocabulary learning into
users' everyday information diets. This is achieved by inconspicuously
switching chosen words encountered by the user for their translation in the
target language. Thus, by seeing words in context, the user can assimilate new
vocabulary without much conscious effort. We validate our approach in a careful
user study, finding that the efficacy of the lightweight Broccoli approach is
competitive with traditional, memorization-based vocabulary learning. The low
cognitive overhead is manifested in a pronounced decrease in learners' usage of
mnemonic learning strategies, as compared to traditional learning. Finally, we
establish that language patterns in typical information diets are compatible
with spaced-repetition strategies, thus enabling an efficient use of the
Broccoli paradigm. Overall, our work establishes the feasibility of a novel and
powerful "install-and-forget" approach for embedded language acquisition.
- Abstract(参考訳): 新しい言語の学習は、今日まで、かなりの勤勉さと意志力、最近の進歩とツールを必要とする認知的タスクであり続けている。
本稿では,ユーザの日常的な情報ダイエットに語彙学習をシームレスに埋め込むことにより,必要な労力を削減するための新たなパラダイムであるBroccoliを提案する。
これは、ターゲット言語での翻訳のために、ユーザが遭遇した選択された単語を目立たず切り替えることによって達成される。
したがって、文脈で単語を見ることで、ユーザーは意識的な努力を伴わずに新しい語彙を同化することができる。
われわれのアプローチを慎重に研究し、軽量なブロッコリーアプローチの有効性が従来の記憶に基づく語彙学習と競合していることを見出した。
認知的オーバーヘッドの低さは、従来の学習と比較して、学習者のmnemonic learning戦略の使用率の顕著な低下に現れている。
最後に,典型的な情報ダイエットにおける言語パターンが空間的反復戦略と適合していることを確認し,ブロッコリーパラダイムの効率的な利用を可能にした。
全体として、我々の研究は、組み込み言語獲得のための新しい強力な"インストール・アンド・フォーゲット"アプローチの実現可能性を確立します。
関連論文リスト
- Rapid Word Learning Through Meta In-Context Learning [29.29775111160227]
In-context learNing Of Words(Minnow)のためのメタトレーニング手法を提案する。
この方法は、いくつかの文脈内例から単語の使用例を生成するために言語モデルを訓練する。
Minnowでスクラッチからトレーニングするモデルは、人間のスケールの子供指向言語で、強力な数発の単語学習を可能にしている。
論文 参考訳(メタデータ) (2025-02-20T18:11:38Z) - Exploring Automated Keyword Mnemonics Generation with Large Language Models via Overgenerate-and-Rank [4.383205675898942]
キーワード・ムネモニクス(英: Keywords mnemonics)は、単語を単語のキューを通じて記憶可能な関連性を通じて記憶する技法である。
そこで本稿では,大規模言語モデルに言語的手がかりを生成させる手法として,新しいオーバージェネレーション・アンド・ランク法を提案する。
以上の結果から, LLM生成のメネモニクスは, 画像性, コヒーレンス, 知覚的有用性の観点から, 人間生成のミネモニクスに匹敵するものであることが示唆された。
論文 参考訳(メタデータ) (2024-09-21T00:00:18Z) - CoLLEGe: Concept Embedding Generation for Large Language Models [12.812113254812028]
CoLLEGeは、新しい概念のための柔軟な埋め込みを生成することができるメタ学習フレームワークである。
我々は,現実のシナリオに挑戦する上で,新しい概念学習をテストするための一連のタスクを設計する。
論文 参考訳(メタデータ) (2024-03-22T17:26:05Z) - Continuously Learning New Words in Automatic Speech Recognition [56.972851337263755]
音声認識のための自己教師付き連続学習手法を提案する。
文献からのメモリ拡張型ASRモデルを用いて、スライドから新しい単語を復号する。
提案手法により,新たな単語の出現頻度が高くなると,新たな単語のパフォーマンスが向上することを示す。
論文 参考訳(メタデータ) (2024-01-09T10:39:17Z) - Storyfier: Exploring Vocabulary Learning Support with Text Generation
Models [52.58844741797822]
本研究では,学習者の興味をひく対象語に対するコヒーレントな文脈を提供するために,Storyfierを開発した。
学習者は一般的に、生成したストーリーを目標語を接続し、学習負荷を緩和するための支援を書くのに好む。
読み書き学習セッションでは、AI機能のないベースラインツールで学習するよりも、Storyfierを使用する参加者は、リコールやターゲット語の使用でパフォーマンスが悪くなります。
論文 参考訳(メタデータ) (2023-08-07T18:25:00Z) - Retentive or Forgetful? Diving into the Knowledge Memorizing Mechanism
of Language Models [49.39276272693035]
大規模事前学習型言語モデルは、顕著な記憶能力を示している。
プレトレーニングのないバニラニューラルネットワークは、破滅的な忘れ物問題に悩まされていることが長年観察されてきた。
1)バニラ言語モデルは忘れがちである; 2)事前学習は暗黙の言語モデルにつながる; 3)知識の妥当性と多様化は記憶形成に大きな影響を及ぼす。
論文 参考訳(メタデータ) (2023-05-16T03:50:38Z) - SmartPhone: Exploring Keyword Mnemonic with Auto-generated Verbal and
Visual Cues [2.8047215329139976]
本稿では,キーワード・メニーモニックのための言語・視覚的手がかりの自動生成のためのエンドツーエンドパイプラインを提案する。
言語と視覚を自動生成するエンド・ツー・エンドのパイプラインである我々のアプローチは、覚えやすいキューを自動的に生成することができる。
論文 参考訳(メタデータ) (2023-05-11T20:58:10Z) - Semi-Supervised Lifelong Language Learning [81.0685290973989]
ラベル付きデータとラベルなしデータの両方を用いて、モデルが逐次到着する言語タスクを学習する、新しい半教師付き生涯言語学習(SSLL)について検討する。
特に、破滅的な忘れを軽減し、ラベルのないデータを活用するために2つのモジュールを設計するために、タスク固有のモジュールに特化しています。
各種言語課題に対する実験結果から,本モデルの有効性と,競争的ベースラインよりも優越性を示す。
論文 参考訳(メタデータ) (2022-11-23T15:51:33Z) - Short-Term Word-Learning in a Dynamically Changing Environment [63.025297637716534]
本稿では、単語/フレーズメモリと、このメモリにアクセスして単語やフレーズを正しく認識するためのメカニズムを用いて、エンドツーエンドのASRシステムを補完する方法を示す。
誤報がわずかに増加しただけで, 単語の検出速度が大幅に向上した。
論文 参考訳(メタデータ) (2022-03-29T10:05:39Z) - Learning Adaptive Language Interfaces through Decomposition [89.21937539950966]
本稿では,分解による新しいハイレベルな抽象化を学習するニューラルセマンティック解析システムを提案する。
ユーザは、新しい振る舞いを記述する高レベルな発話を低レベルなステップに分解することで、対話的にシステムを教える。
論文 参考訳(メタデータ) (2020-10-11T08:27:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。