論文の概要: Broccoli: Sprinkling Lightweight Vocabulary Learning into Everyday
Information Diets
- arxiv url: http://arxiv.org/abs/2104.07941v1
- Date: Fri, 16 Apr 2021 07:38:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-19 14:18:01.160375
- Title: Broccoli: Sprinkling Lightweight Vocabulary Learning into Everyday
Information Diets
- Title(参考訳): broccoli: 軽量な語彙学習から日常の情報ダイエットへ
- Authors: Roland Aydin, Lars Klein, Arnaud Miribel, Robert West
- Abstract要約: Broccoliは、ユーザーの日常的な情報ダイエットに語彙学習をシームレスに組み込むことで、必要な労力を削減することを目的とした新しいパラダイムです。
軽量Broccoliアプローチの有効性は,従来の記憶に基づく語彙学習と競合することがわかった。
- 参考スコア(独自算出の注目度): 3.305377595864778
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The learning of a new language remains to this date a cognitive task that
requires considerable diligence and willpower, recent advances and tools
notwithstanding. In this paper, we propose Broccoli, a new paradigm aimed at
reducing the required effort by seamlessly embedding vocabulary learning into
users' everyday information diets. This is achieved by inconspicuously
switching chosen words encountered by the user for their translation in the
target language. Thus, by seeing words in context, the user can assimilate new
vocabulary without much conscious effort. We validate our approach in a careful
user study, finding that the efficacy of the lightweight Broccoli approach is
competitive with traditional, memorization-based vocabulary learning. The low
cognitive overhead is manifested in a pronounced decrease in learners' usage of
mnemonic learning strategies, as compared to traditional learning. Finally, we
establish that language patterns in typical information diets are compatible
with spaced-repetition strategies, thus enabling an efficient use of the
Broccoli paradigm. Overall, our work establishes the feasibility of a novel and
powerful "install-and-forget" approach for embedded language acquisition.
- Abstract(参考訳): 新しい言語の学習は、今日まで、かなりの勤勉さと意志力、最近の進歩とツールを必要とする認知的タスクであり続けている。
本稿では,ユーザの日常的な情報ダイエットに語彙学習をシームレスに埋め込むことにより,必要な労力を削減するための新たなパラダイムであるBroccoliを提案する。
これは、ターゲット言語での翻訳のために、ユーザが遭遇した選択された単語を目立たず切り替えることによって達成される。
したがって、文脈で単語を見ることで、ユーザーは意識的な努力を伴わずに新しい語彙を同化することができる。
われわれのアプローチを慎重に研究し、軽量なブロッコリーアプローチの有効性が従来の記憶に基づく語彙学習と競合していることを見出した。
認知的オーバーヘッドの低さは、従来の学習と比較して、学習者のmnemonic learning戦略の使用率の顕著な低下に現れている。
最後に,典型的な情報ダイエットにおける言語パターンが空間的反復戦略と適合していることを確認し,ブロッコリーパラダイムの効率的な利用を可能にした。
全体として、我々の研究は、組み込み言語獲得のための新しい強力な"インストール・アンド・フォーゲット"アプローチの実現可能性を確立します。
関連論文リスト
- Exploring Automated Keyword Mnemonics Generation with Large Language Models via Overgenerate-and-Rank [4.383205675898942]
キーワード・ムネモニクス(英: Keywords mnemonics)は、単語を単語のキューを通じて記憶可能な関連性を通じて記憶する技法である。
そこで本稿では,大規模言語モデルに言語的手がかりを生成させる手法として,新しいオーバージェネレーション・アンド・ランク法を提案する。
以上の結果から, LLM生成のメネモニクスは, 画像性, コヒーレンス, 知覚的有用性の観点から, 人間生成のミネモニクスに匹敵するものであることが示唆された。
論文 参考訳(メタデータ) (2024-09-21T00:00:18Z) - CoLLEGe: Concept Embedding Generation for Large Language Models [12.812113254812028]
CoLLEGeは、新しい概念のための柔軟な埋め込みを生成することができるメタ学習フレームワークである。
我々は,現実のシナリオに挑戦する上で,新しい概念学習をテストするための一連のタスクを設計する。
論文 参考訳(メタデータ) (2024-03-22T17:26:05Z) - Storyfier: Exploring Vocabulary Learning Support with Text Generation
Models [52.58844741797822]
本研究では,学習者の興味をひく対象語に対するコヒーレントな文脈を提供するために,Storyfierを開発した。
学習者は一般的に、生成したストーリーを目標語を接続し、学習負荷を緩和するための支援を書くのに好む。
読み書き学習セッションでは、AI機能のないベースラインツールで学習するよりも、Storyfierを使用する参加者は、リコールやターゲット語の使用でパフォーマンスが悪くなります。
論文 参考訳(メタデータ) (2023-08-07T18:25:00Z) - Human Inspired Progressive Alignment and Comparative Learning for
Grounded Word Acquisition [6.47452771256903]
我々は、人間の赤ちゃんが最初の言語をどのように習得するかからインスピレーションを得て、比較学習を通じて単語獲得のための計算プロセスを開発した。
認知的発見を動機として,様々な属性の類似点と相違点を計算モデルで比較できる小さなデータセットを作成した。
我々は、単語の獲得を情報フィルタリングのプロセスだけでなく、表現-シンボルマッピングにもとづいている。
論文 参考訳(メタデータ) (2023-07-05T19:38:04Z) - Retentive or Forgetful? Diving into the Knowledge Memorizing Mechanism
of Language Models [49.39276272693035]
大規模事前学習型言語モデルは、顕著な記憶能力を示している。
プレトレーニングのないバニラニューラルネットワークは、破滅的な忘れ物問題に悩まされていることが長年観察されてきた。
1)バニラ言語モデルは忘れがちである; 2)事前学習は暗黙の言語モデルにつながる; 3)知識の妥当性と多様化は記憶形成に大きな影響を及ぼす。
論文 参考訳(メタデータ) (2023-05-16T03:50:38Z) - SmartPhone: Exploring Keyword Mnemonic with Auto-generated Verbal and
Visual Cues [2.8047215329139976]
本稿では,キーワード・メニーモニックのための言語・視覚的手がかりの自動生成のためのエンドツーエンドパイプラインを提案する。
言語と視覚を自動生成するエンド・ツー・エンドのパイプラインである我々のアプローチは、覚えやすいキューを自動的に生成することができる。
論文 参考訳(メタデータ) (2023-05-11T20:58:10Z) - Semi-Supervised Lifelong Language Learning [81.0685290973989]
ラベル付きデータとラベルなしデータの両方を用いて、モデルが逐次到着する言語タスクを学習する、新しい半教師付き生涯言語学習(SSLL)について検討する。
特に、破滅的な忘れを軽減し、ラベルのないデータを活用するために2つのモジュールを設計するために、タスク固有のモジュールに特化しています。
各種言語課題に対する実験結果から,本モデルの有効性と,競争的ベースラインよりも優越性を示す。
論文 参考訳(メタデータ) (2022-11-23T15:51:33Z) - On the Efficiency of Integrating Self-supervised Learning and
Meta-learning for User-defined Few-shot Keyword Spotting [51.41426141283203]
ユーザ定義キーワードスポッティングは、ユーザが定義する新しい音声用語を検出するタスクである。
これまでの研究は、自己教師付き学習モデルを取り入れたり、メタ学習アルゴリズムを適用しようとするものだった。
この結果から,HuBERTとMatching Networkを組み合わせることで,最適な結果が得られることがわかった。
論文 参考訳(メタデータ) (2022-04-01T10:59:39Z) - Short-Term Word-Learning in a Dynamically Changing Environment [63.025297637716534]
本稿では、単語/フレーズメモリと、このメモリにアクセスして単語やフレーズを正しく認識するためのメカニズムを用いて、エンドツーエンドのASRシステムを補完する方法を示す。
誤報がわずかに増加しただけで, 単語の検出速度が大幅に向上した。
論文 参考訳(メタデータ) (2022-03-29T10:05:39Z) - Learning Adaptive Language Interfaces through Decomposition [89.21937539950966]
本稿では,分解による新しいハイレベルな抽象化を学習するニューラルセマンティック解析システムを提案する。
ユーザは、新しい振る舞いを記述する高レベルな発話を低レベルなステップに分解することで、対話的にシステムを教える。
論文 参考訳(メタデータ) (2020-10-11T08:27:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。