論文の概要: BabyLM Turns 4 and Goes Multilingual: Call for Papers for the 2026 BabyLM Workshop
- arxiv url: http://arxiv.org/abs/2602.20092v2
- Date: Tue, 24 Feb 2026 17:51:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-25 15:32:50.757628
- Title: BabyLM Turns 4 and Goes Multilingual: Call for Papers for the 2026 BabyLM Workshop
- Title(参考訳): BabyLMが4歳からマルチ言語に:2026年のBabyLMワークショップの論文募集
- Authors: Leshem Choshen, Ryan Cotterell, Mustafa Omer Gul, Jaap Jumelet, Tal Linzen, Aaron Mueller, Suchir Salhan, Raj Sanjay Shah, Alex Warstadt, Ethan Gotlieb Wilcox,
- Abstract要約: BabyLMの目的は、認知モデルと言語モデル事前学習の間の新しい研究関係を刺激することである。
今年は、英語、オランダ語、中国語に重点を置いた、新しいトラックで、これまでの英語のみの事前トレーニングデータセットを超えています。
ワークショップでは、トレーニング効率、小規模トレーニングデータセット、認知モデリング、モデル評価、アーキテクチャ革新などを含むBabyLMの全体的なテーマに関する論文を募集する。
- 参考スコア(独自算出の注目度): 73.0356575273869
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The goal of the BabyLM is to stimulate new research connections between cognitive modeling and language model pretraining. We invite contributions in this vein to the BabyLM Workshop, which will also include the 4th iteration of the BabyLM Challenge. As in previous years, the challenge features two ``standard'' tracks (Strict and Strict-Small), in which participants must train language models on under 100M or 10M words of data, respectively. This year, we move beyond our previous English-only pretraining datasets with a new Multilingual track, focusing on English, Dutch, and Chinese. For the workshop, we call for papers related to the overall theme of BabyLM, which includes training efficiency, small-scale training datasets, cognitive modeling, model evaluation, and architecture innovation.
- Abstract(参考訳): BabyLMの目的は、認知モデルと言語モデル事前学習の間の新しい研究関係を刺激することである。
私たちは、BabyLM Challengeの4回目のイテレーションを含むBabyLM Workshopに、この流れへのコントリビューションを招待します。
前年と同様に、「標準」の2つのトラック(StrictとStrict-Small)があり、参加者はそれぞれ1億ワードまたは1000万ワード以下のデータで言語モデルをトレーニングしなければならない。
今年は、英語、オランダ語、中国語に焦点を当てた、新しい多言語トラックを備えた、これまでの英語のみの事前トレーニングデータセットを超えています。
ワークショップでは、トレーニング効率、小規模トレーニングデータセット、認知モデリング、モデル評価、アーキテクチャ革新などを含むBabyLMの全体的なテーマに関する論文を募集する。
関連論文リスト
- Findings of the BabyLM Challenge: Sample-Efficient Pretraining on Developmentally Plausible Corpora [84.03928547166873]
子どもたちは1億ワード未満の入力から言語を習得できる。
大規模な言語モデルはデータ効率がはるかに低く、通常は3~4桁以上のデータを必要とするが、多くの評価において人間ほど性能は高くない。
BabyLM Challengeは、参加者が固定データ予算で言語モデルトレーニングを最適化するために競う共同作業である。
論文 参考訳(メタデータ) (2025-04-10T23:22:43Z) - BabyLM Turns 3: Call for papers for the 2025 BabyLM workshop [77.62533643491747]
BabyLMは認知モデリングと言語モデリングの境界を解消することを目的としている。
第3回BabyLMコンペティションに参加するためには,ワークショップ論文と研究者の両方が必要だ。
論文 参考訳(メタデータ) (2025-02-15T02:46:43Z) - A surprisal oracle for when every layer counts [2.5716627278119444]
Active Curriculum Language Modeling (ACLM)は、言語モデルをトレーニングするための学習者指向のアプローチである。
本稿では,BabyLM 2024タスクに対するACLMプロセスの更新を提案する。
論文 参考訳(メタデータ) (2024-12-04T07:53:45Z) - [Call for Papers] The 2nd BabyLM Challenge: Sample-efficient pretraining on a developmentally plausible corpus [81.34965784440176]
このCfPはBabyLM Challenge 2024-2025のルールを提供する。
課題の全体的目標は同じままです。
私たちは緩い線を紙の線で置き換える。
事前学習に関するルールを緩和します。
マルチモーダル・ヴィジュアル・アンド・ランゲージ・トラックを導入する。
論文 参考訳(メタデータ) (2024-04-09T11:04:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。