論文の概要: Teaching LLMs at Charles University: Assignments and Activities
- arxiv url: http://arxiv.org/abs/2407.19798v1
- Date: Mon, 29 Jul 2024 08:43:48 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-30 14:35:40.322467
- Title: Teaching LLMs at Charles University: Assignments and Activities
- Title(参考訳): チャールズ大学におけるLCM教育 : 課題と活動
- Authors: Jindřich Helcl, Zdeněk Kasner, Ondřej Dušek, Tomasz Limisiewicz, Dominik Macháček, Tomáš Musil, Jindřich Libovický,
- Abstract要約: 本稿では,チャールズ大学における大規模言語モデル(LLM)の新しいコースから,授業活動のための教材,特に課題とアイデアを提示する。
この課題には、天気予報生成と機械翻訳のためのLLM推論の実験が含まれる。
教室の活動には、授業のクイズ、下流のタスクとデータセットに関する集中研究、研究論文の読解と理解を目的としたインタラクティブな「ベストペーパー」セッションが含まれる。
- 参考スコア(独自算出の注目度): 4.204013886986285
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents teaching materials, particularly assignments and ideas for classroom activities, from a new course on large language models (LLMs) taught at Charles University. The assignments include experiments with LLM inference for weather report generation and machine translation. The classroom activities include class quizzes, focused research on downstream tasks and datasets, and an interactive "best paper" session aimed at reading and comprehension of research papers.
- Abstract(参考訳): 本稿では,チャールズ大学における大規模言語モデル(LLM)の新しいコースから,授業活動のための教材,特に課題とアイデアを提示する。
この課題には、天気予報生成と機械翻訳のためのLLM推論の実験が含まれる。
教室の活動には、授業のクイズ、下流のタスクとデータセットに関する集中研究、研究論文の読解と理解を目的としたインタラクティブな「ベストペーパー」セッションが含まれる。
関連論文リスト
- A Course Shared Task on Evaluating LLM Output for Clinical Questions [49.78601596538669]
本稿では,健康関連臨床問題に対する有害な回答を生成するために,LLM(Large Language Models)の出力を評価することに焦点を当てた。
課題設計について考察し,学生からのフィードバックを報告する。
論文 参考訳(メタデータ) (2024-07-31T19:24:40Z) - LLM-jp: A Cross-organizational Project for the Research and Development of Fully Open Japanese LLMs [90.2859077695445]
本稿では,LLM-jpについて紹介する。LLM-jpは,日本語大言語モデル(LLM)の研究・開発のためのクロスオーガナイゼーションプロジェクトである。
この執筆時点で、学界や産業界から1,500人以上の参加者がこの目的のために協力している。
最新のアクティビティについては、https://llm-jp.nii.ac.jp/en/.com/を参照してください。
論文 参考訳(メタデータ) (2024-07-04T14:33:03Z) - "Which LLM should I use?": Evaluating LLMs for tasks performed by Undergraduate Computer Science Students [2.6043678412433713]
本研究では,大学生に共通する作業における大規模言語モデル(LLM)の有効性を評価する。
私たちの研究は、Google Bard、ChatGPT(3.5)、GitHub Copilot Chat、Microsoft Copilot Chatなど、公開されているLLMのいくつかを体系的に評価しています。
論文 参考訳(メタデータ) (2024-01-22T15:11:36Z) - Multimodal Classification of Teaching Activities from University Lecture
Recordings [0.9790236766474201]
本稿では,授業のいつでも実施されている活動の種類を特定するマルチモーダル分類アルゴリズムを提案する。
いくつかの学術活動は、音声信号とより容易に識別でき、テキストの書き起こしに頼って他者を特定する必要がある。
論文 参考訳(メタデータ) (2023-12-24T08:33:30Z) - Speech Translation with Large Language Models: An Industrial Practice [64.5419534101104]
LLM-STは,事前学習型大言語モデル(LLM)に基づいて構築された,新規で効果的な音声翻訳モデルである。
大規模言語モデル(LLM)を音声エンコーダと統合し、マルチタスクの命令チューニングを利用することで、LLM-STは正確なタイムスタンプと翻訳を生成することができる。
英語と中国語のデータセットの厳密な実験を通じて,LLM-STの異常な性能を示す。
論文 参考訳(メタデータ) (2023-12-21T05:32:49Z) - FreeAL: Towards Human-Free Active Learning in the Era of Large Language
Models [21.88032973150393]
大規模言語モデル(LLM)からのタスク固有知識の対話的蒸留とフィルタリング
8つのベンチマークデータセットの実験では、FreeALは人間の監督なしに、SLMとLLMのゼロショット性能を大幅に向上することを示した。
論文 参考訳(メタデータ) (2023-11-27T08:23:08Z) - Exploring In-Context Learning of Textless Speech Language Model for Speech Classification Tasks [98.5311231450689]
インコンテキスト学習(ICL)は,大規模言語モデル(LLM)の利用において重要な役割を担っている。
本研究は,テキストレス音声 LM を用いた音声分類タスクのための ICL を探索する最初の研究である。
論文 参考訳(メタデータ) (2023-10-19T05:31:45Z) - Multi-Task Instruction Tuning of LLaMa for Specific Scenarios: A
Preliminary Study on Writing Assistance [60.40541387785977]
小さな基礎モデルは、命令駆動データを用いて微調整された場合、多様なタスクに対処する際、顕著な習熟度を示すことができる。
本研究は, 汎用的な指導よりも, 1つないし数つの特定のタスクに主眼を置いている, 実践的な問題設定について検討する。
実験結果から,命令データに対する微調整LLaMAは,タスクの記述能力を大幅に向上することが示された。
論文 参考訳(メタデータ) (2023-05-22T16:56:44Z) - Harnessing the Power of LLMs in Practice: A Survey on ChatGPT and Beyond [48.70557995528463]
このガイドは、研究者や実践者が大規模言語モデルを扱うための貴重な洞察とベストプラクティスを提供することを目的としている。
実世界のシナリオにおける LLM の実用的応用と限界を説明するために, 様々なユースケースと非利用事例を提示する。
論文 参考訳(メタデータ) (2023-04-26T17:52:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。