論文の概要: Teaching a Massive Open Online Course on Natural Language Processing
- arxiv url: http://arxiv.org/abs/2104.12846v1
- Date: Mon, 26 Apr 2021 19:52:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-29 00:43:09.005841
- Title: Teaching a Massive Open Online Course on Natural Language Processing
- Title(参考訳): 自然言語処理に関する大規模オープンオンライン講座
- Authors: Ekaterina Artemova and Murat Apishev and Veronika Sarkisyan and Sergey
Aksenov and Denis Kirjanov and Oleg Serikov
- Abstract要約: 本稿では,自然言語処理に関する新しい大規模オンラインコースを提案する。
コースは12週間続き、毎週講義、実践セッション、クイズの課題で構成されています。
- 参考スコア(独自算出の注目度): 1.1744028458220428
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents a new Massive Open Online Course on Natural Language
Processing, targeted at non-English speaking students. The course lasts 12
weeks; every week consists of lectures, practical sessions, and quiz
assignments. Three weeks out of 12 are followed by Kaggle-style coding
assignments.
Our course intends to serve multiple purposes: (i) familiarize students with
the core concepts and methods in NLP, such as language modeling or word or
sentence representations, (ii) show that recent advances, including pre-trained
Transformer-based models, are built upon these concepts; (iii) introduce
architectures for most demanded real-life applications, (iv) develop practical
skills to process texts in multiple languages. The course was prepared and
recorded during 2020, launched by the end of the year, and in early 2021 has
received positive feedback.
- Abstract(参考訳): 本稿では,非英語話者を対象に,自然言語処理に関する大規模オープンオンライン講座を新たに開催する。
コースは12週間で、毎週講義、実践的なセッション、クイズ課題で構成されている。
12のうち3週間は、Kaggleスタイルのコーディング課題が続く。
i)言語モデリングや単語や文表現など,NLPの中核的な概念や手法を学生に親しみやすくすること,(ii)事前学習型トランスフォーマーベースモデルを含む最近の進歩がこれらの概念に基づいて構築されていること,(iii)ほとんどの要求された実生活アプリケーションのためのアーキテクチャを導入すること,(iv)複数の言語でテキストを処理する実践的スキルを開発すること,などである。
コースは2020年に準備され、2020年末までに開始され、2021年初頭には肯定的なフィードバックを受けた。
関連論文リスト
- A Novel Cartography-Based Curriculum Learning Method Applied on RoNLI: The First Romanian Natural Language Inference Corpus [71.77214818319054]
自然言語推論は自然言語理解のプロキシである。
ルーマニア語のNLIコーパスは公開されていない。
58Kの訓練文対からなるルーマニア初のNLIコーパス(RoNLI)を紹介する。
論文 参考訳(メタデータ) (2024-05-20T08:41:15Z) - Improving Language Plasticity via Pretraining with Active Forgetting [63.36484652568976]
本稿では,新しい言語に迅速に適応可能な PLM を作成する簡単な方法として,事前学習中に能動的に忘れる機構を提案する。
RoBERTaを用いた実験では、忘れるメカニズムで事前訓練されたモデルは、言語適応中により高速な収束を示す。
論文 参考訳(メタデータ) (2023-07-03T17:12:44Z) - ComSL: A Composite Speech-Language Model for End-to-End Speech-to-Text
Translation [79.66359274050885]
公的な事前訓練された音声のみのモデルと言語のみのモデルからなる複合アーキテクチャ上に構築された音声言語モデルであるComSLを提案する。
提案手法は,エンドツーエンドの音声-テキスト翻訳タスクにおいて有効であることを示す。
論文 参考訳(メタデータ) (2023-05-24T07:42:15Z) - Foundation Models for Natural Language Processing -- Pre-trained
Language Models Integrating Media [0.0]
ファンデーションモデルは自然言語処理のための事前訓練された言語モデルである。
画像処理やビデオ処理からロボット制御学習まで、幅広いメディアや問題領域に適用することができる。
本書は、ファンデーションモデルの研究および応用における技術の現状を概観する。
論文 参考訳(メタデータ) (2023-02-16T20:42:04Z) - Design of Classes I [0.0]
本稿では、セトンホール大学において、この移行の第一段階がどのように実現されたかを示す。
この移行は、学生が内部化したデザインレッスンがオブジェクト指向プログラミングに関連することを明示的に示すことで円滑に行われる。
このコースで学生から収集された実証的な証拠は、そのアプローチが効果的であり、移行がスムーズであることを示唆している。
論文 参考訳(メタデータ) (2022-07-26T07:44:24Z) - Pre-Trained Language Models for Interactive Decision-Making [72.77825666035203]
目的と観測を埋め込みのシーケンスとして表現する模倣学習の枠組みを述べる。
このフレームワークは様々な環境にまたがって効果的な一般化を可能にすることを実証する。
新たなゴールや新しいシーンを含むテストタスクでは、言語モデルによる初期化ポリシーはタスク完了率を43.6%改善する。
論文 参考訳(メタデータ) (2022-02-03T18:55:52Z) - Towards a Cleaner Document-Oriented Multilingual Crawled Corpus [2.1028463367241033]
本稿では、既存の多言語WebコーパスOSCARとそのパイプラインUngoliantを取り上げ、行レベルでCommon Crawlからデータを抽出し分類する。
そこで本稿では,OSCARの文書指向バージョンを生成するための改良と自動アノテーションを提案する。
論文 参考訳(メタデータ) (2022-01-17T22:12:59Z) - The Online Pivot: Lessons Learned from Teaching a Text and Data Mining
Course in Lockdown, Enhancing online Teaching with Pair Programming and
Digital Badges [1.477454374243818]
このコースを,2つのパイロット運用にどのように適応するか,そして,学生の学習とコミュニティ構築を改善するための教育手法について述べる。
そこで本研究では,デジタルバッジやペアプログラミングといった,デジタルに応用される革新的な教育手法を,初心者や学生に自然言語処理コースを教えるための授業室で活用することを提案する。
論文 参考訳(メタデータ) (2021-05-03T09:38:26Z) - Teaching NLP with Bracelets and Restaurant Menus: An Interactive
Workshop for Italian Students [0.0]
このワークショップは、13歳から18歳までのイタリアの高校生にnlpと計算言語学の基本原則を説明するために設計された。
ワークショップは2019年から2021年にかけて、対面とオンラインの両方で、イタリアで多数のコンセントで開催された。
論文 参考訳(メタデータ) (2021-04-26T09:23:52Z) - Style Variation as a Vantage Point for Code-Switching [54.34370423151014]
Code-Switching (CS) は、複数のバイリンガルコミュニティや多言語コミュニティでよく見られる現象である。
両言語間のスタイルのバリエーションとして,CSの新たな特徴点を提示する。
本稿では,第1段階がCSの競合負例を生成し,第2段階がより現実的なCS文を生成する2段階生成逆トレーニング手法を提案する。
論文 参考訳(メタデータ) (2020-05-01T15:53:16Z) - Curriculum Pre-training for End-to-End Speech Translation [51.53031035374276]
本稿では,2つの言語における発話と単語のマッピングを理解するための,書き起こし学習の初等科目と2つの先進科目を含むカリキュラム事前学習手法を提案する。
実験の結果,カリキュラム事前学習手法は,En-De と En-Fr の音声翻訳ベンチマークを大幅に改善することがわかった。
論文 参考訳(メタデータ) (2020-04-21T15:12:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。