論文の概要: A dissemination workshop for introducing young Italian students to NLP
- arxiv url: http://arxiv.org/abs/2104.12405v1
- Date: Mon, 26 Apr 2021 09:00:56 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-27 14:43:18.882146
- Title: A dissemination workshop for introducing young Italian students to NLP
- Title(参考訳): 若いイタリア人学生をNLPに導入するための普及ワークショップ
- Authors: Lucio Messina (1), Lucia Busso (2), Claudia Roberta Combei (3),
Ludovica Pannitto (4), Alessio Miaschi (5), Gabriele Sarti (6) and Malvina
Nissim (7) ((1) Independent Researcher, (2) Aston University, (3) University
of Bologna, (4) University of Trento, (5) University of Pisa, (6) University
of Trieste, (7) University of Groningen)
- Abstract要約: 我々は,いくつかのイタリア科学祭の研究室で,nlpを普及させるために開発されたゲームベースの教材を解説し,活用する。
この教材は、若い学生にNLPを広めるために開発された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We describe and make available the game-based material developed for a
laboratory run at several Italian science festivals to popularize NLP among
young students.
- Abstract(参考訳): 我々は,いくつかのイタリア科学祭の研究室で,nlpを普及させるために開発されたゲームベースの教材を解説し,活用する。
関連論文リスト
- Language-Specific Neurons: The Key to Multilingual Capabilities in Large
Language Models [122.25217086389425]
大規模言語モデル(LLM)は、特別にキュレートされた多言語並列コーパスで事前訓練されることなく、顕著な多言語機能を示す。
LLM内の言語特異的ニューロンを識別するための新しい検出手法である言語アクティベーション確率エントロピー(LAPE)を提案する。
以上の結果から,LLMが特定の言語を処理できる能力は,神経細胞のサブセットが少なすぎるためであることが示唆された。
論文 参考訳(メタデータ) (2024-02-26T09:36:05Z) - Defining a New NLP Playground [85.41973504055588]
最近の大規模言語モデルの性能の爆発により、自然言語処理の分野は80年の歴史の中で他のどの変化よりも突然かつ地震的に変化した。
本稿では、理論解析、新しい課題、学習パラダイム、学際的応用など、20以上の博士論文にふさわしい研究方向性を提案する。
論文 参考訳(メタデータ) (2023-10-31T17:02:33Z) - A PhD Student's Perspective on Research in NLP in the Era of Very Large
Language Models [28.01821384651321]
大規模言語モデルの最近の進歩は、多くの生成NLPアプリケーションのデプロイを可能にしている。
この文書は、NLP研究の方向性をまとめたもので、探索に豊富である。
論文 参考訳(メタデータ) (2023-05-21T19:06:30Z) - Teaching Digital Manufacturing Experimenting Blended-Learning Models By
Combining MOOC And On-site Workshops In FabLabs [0.0]
MOOCを使って大規模なデジタル製造を教えることで、フランスの大学院工学学校のネットワークであるIMTの機会が開かれた。
オンラインでMOOCを受講し、対人ワークショップに出席する生涯学習研修生のコホートを設置することにより、プロジェクトベースのSTEMコースのブレンドラーニングモデルとハイブリッドスキル認定を実験する。
論文 参考訳(メタデータ) (2023-03-07T16:36:50Z) - The Current State of Finnish NLP [0.685316573653194]
フィンランド語を処理するためのツールやリソースはたくさんあります。
NLPツールや学術研究から得られたモデルがGithubのようなプラットフォームで他の人が使えるようになることは、しばしばある。
論文 参考訳(メタデータ) (2021-09-23T12:19:56Z) - Introducing Information Retrieval for Biomedical Informatics Students [0.4588028371034406]
我々は,NLPを用いた情報検索に導入したBMI学生の3つの活動のセットを開発した。
これらの活動は、学生に共通ユースケースを対象としたハンズオン体験を提供し、幅広い用途にNLPの基本コンポーネントを導入する。
論文 参考訳(メタデータ) (2021-05-06T15:15:54Z) - Teaching NLP with Bracelets and Restaurant Menus: An Interactive
Workshop for Italian Students [0.0]
このワークショップは、13歳から18歳までのイタリアの高校生にnlpと計算言語学の基本原則を説明するために設計された。
ワークショップは2019年から2021年にかけて、対面とオンラインの両方で、イタリアで多数のコンセントで開催された。
論文 参考訳(メタデータ) (2021-04-26T09:23:52Z) - FedNLP: A Research Platform for Federated Learning in Natural Language
Processing [55.01246123092445]
NLPのフェデレーションラーニングのための研究プラットフォームであるFedNLPを紹介します。
FedNLPは、テキスト分類、シーケンスタグ付け、質問応答、Seq2seq生成、言語モデリングなど、NLPで一般的なタスクの定式化をサポートしている。
FedNLPによる予備実験では、分散型データセットと集中型データセットの学習には大きなパフォーマンスギャップが存在することが明らかになった。
論文 参考訳(メタデータ) (2021-04-18T11:04:49Z) - Automatically Identifying Language Family from Acoustic Examples in Low
Resource Scenarios [48.57072884674938]
ディープラーニングを用いて言語類似性を解析する手法を提案する。
すなわち、Willernessデータセットのモデルをトレーニングし、その潜在空間が古典的な言語家族の発見とどのように比較されるかを調べる。
論文 参考訳(メタデータ) (2020-12-01T22:44:42Z) - A Systematic Assessment of Deep Learning Models for Molecule Generation [70.59828655929194]
薬物発見のための生成モデル評価のための広範囲なテストベッドを提案する。
文献で提案した多くのモデルから得られた結果について述べる。
論文 参考訳(メタデータ) (2020-08-20T19:13:31Z) - Evaluating German Transformer Language Models with Syntactic Agreement
Tests [63.760423764010376]
事前学習型トランスフォーマー言語モデル(TLM)は、最近NLP(Refashioned Natural Language Processing)を改訂した。
我々は多くの合意タスクを設計し、そのうちのいくつかはドイツ語の特異性を考慮したものである。
実験結果から,現在最先端のドイツのTLMは,一般に合意作業において良好に機能することが示された。
論文 参考訳(メタデータ) (2020-07-07T20:01:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。