論文の概要: Prototyping the use of Large Language Models (LLMs) for adult learning
content creation at scale
- arxiv url: http://arxiv.org/abs/2306.01815v1
- Date: Fri, 2 Jun 2023 10:58:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-07 00:00:45.991469
- Title: Prototyping the use of Large Language Models (LLMs) for adult learning
content creation at scale
- Title(参考訳): 大規模学習コンテンツ作成のための大規模言語モデル(llms)の使用のプロトタイピング
- Authors: Daniel Leiker, Sara Finnigan, Ashley Ricker Gyllen, Mutlu Cukurova
- Abstract要約: 本稿では,Large Language Models (LLM) の非同期コース生成における利用について検討する。
LLMを利用したコースプロトタイプを開発し,ロバストなHuman-in-the-loopプロセスを実装した。
最初の発見は、このアプローチを採用することで、正確さや明快さを損なうことなく、コンテンツ作成を高速化できることを示している。
- 参考スコア(独自算出の注目度): 0.6628807224384127
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: As Large Language Models (LLMs) and other forms of Generative AI permeate
various aspects of our lives, their application for learning and education has
provided opportunities and challenges. This paper presents an investigation
into the use of LLMs in asynchronous course creation, particularly within the
context of adult learning, training and upskilling. We developed a course
prototype leveraging an LLM, implementing a robust human-in-the-loop process to
ensure the accuracy and clarity of the generated content. Our research
questions focus on the feasibility of LLMs to produce high-quality adult
learning content with reduced human involvement. Initial findings indicate that
taking this approach can indeed facilitate faster content creation without
compromising on accuracy or clarity, marking a promising advancement in the
field of Generative AI for education. Despite some limitations, the study
underscores the potential of LLMs to transform the landscape of learning and
education, necessitating further research and nuanced discussions about their
strategic and ethical use in learning design.
- Abstract(参考訳): 大規模言語モデル(LLM)やその他の生成型AIが私たちの生活の様々な側面に浸透しているため、学習と教育への応用は機会と課題をもたらしてきた。
本稿では, 非同期コース作成におけるLLMの使用, 特に成人学習, トレーニング, アップスキルの文脈における検討について述べる。
我々は,LLMを利用したコースプロトタイプを開発し,その精度と明瞭さを確保するために,頑健なHuman-in-the-loopプロセスを実装した。
研究課題は、人間の関与を減らした高品質な成人学習コンテンツ作成のためのLLMの実現性に焦点をあてる。
最初の発見は、このアプローチを採用することで、正確さや明快さを損なうことなく、コンテンツ作成を高速化できることを示している。
いくつかの制限があるにもかかわらず、この研究は、LLMが学習と教育の景観を変革する可能性を強調し、学習設計における戦略的および倫理的利用に関するさらなる研究と議論を必要としている。
関連論文リスト
- LLMs Could Autonomously Learn Without External Supervision [36.36147944680502]
大規模言語モデル(LLM)は、伝統的に人間の注釈付きデータセットと事前定義されたトレーニング目標に結び付けられてきた。
本稿では,LLMのための自律学習手法を提案する。
本手法は, LLMに対して, 文章と直接対話して自己学習を行う能力を与える。
論文 参考訳(メタデータ) (2024-06-02T03:36:37Z) - Large Language Models for Education: A Survey and Outlook [69.02214694865229]
各視点の技術的進歩を体系的にレビューし、関連するデータセットとベンチマークを整理し、教育におけるLSMの展開に伴うリスクと課題を特定する。
本調査は、LLMの力を利用して教育実践を変革し、より効果的なパーソナライズされた学習環境を育むための、教育者、研究者、政策立案者のための総合的な技術図を提供することを目的とする。
論文 参考訳(メタデータ) (2024-03-26T21:04:29Z) - Evolving Knowledge Distillation with Large Language Models and Active
Learning [46.85430680828938]
大規模言語モデル(LLM)は、様々なNLPタスクにまたがる顕著な機能を示している。
従来の研究は、注釈付きデータを生成してLPMの知識をより小さなモデルに抽出しようと試みてきた。
EvoKD: Evolving Knowledge Distillationを提案する。これは、アクティブラーニングの概念を利用して、大規模言語モデルを用いたデータ生成のプロセスをインタラクティブに強化する。
論文 参考訳(メタデータ) (2024-03-11T03:55:24Z) - Rethinking Machine Unlearning for Large Language Models [85.92660644100582]
大規模言語モデル(LLM)の領域における機械学習の研究
このイニシアチブは、望ましくないデータの影響(機密情報や違法情報など)と関連するモデル機能を排除することを目的としている。
論文 参考訳(メタデータ) (2024-02-13T20:51:58Z) - History, Development, and Principles of Large Language Models-An Introductory Survey [15.875687167037206]
自然言語処理(NLP)の基盤となる言語モデル
数十年にわたる広範な研究を経て、言語モデリングは、初期統計言語モデル(SLM)から、大規模言語モデル(LLM)の現代的景観へと進歩してきた。
論文 参考訳(メタデータ) (2024-02-10T01:18:15Z) - Taking the Next Step with Generative Artificial Intelligence: The Transformative Role of Multimodal Large Language Models in Science Education [13.87944568193996]
MLLM(Multimodal Large Language Models)は、テキスト、音声、視覚入力を含むマルチモーダルデータを処理できる。
本稿では,科学教育の中心的な側面におけるMLLMの変革的役割について,模範的な革新的な学習シナリオを提示することによって考察する。
論文 参考訳(メタデータ) (2024-01-01T18:11:43Z) - Adapting Large Language Models for Education: Foundational Capabilities, Potentials, and Challenges [60.62904929065257]
大規模言語モデル(LLM)は、個々の要求を解釈することでこの問題を解決する可能性を提供する。
本稿では, 数学, 文章, プログラミング, 推論, 知識に基づく質問応答など, 教育能力に関する最近のLLM研究を概観する。
論文 参考訳(メタデータ) (2023-12-27T14:37:32Z) - Supervised Knowledge Makes Large Language Models Better In-context Learners [94.89301696512776]
大規模言語モデル(LLM)は、素早い工学を通して、文脈内学習能力の出現を示す。
自然言語理解と質問応答におけるLLMの一般化性と事実性の向上という課題は、まだ未解決のままである。
本研究では, LLM の信頼性を高める枠組みを提案する。1) 分布外データの一般化,2) 差別モデルによる LLM のメリットの解明,3) 生成タスクにおける幻覚の最小化。
論文 参考訳(メタデータ) (2023-12-26T07:24:46Z) - LMRL Gym: Benchmarks for Multi-Turn Reinforcement Learning with Language
Models [56.25156596019168]
本稿では,LMRL-Gymベンチマークを用いて,大規模言語モデル(LLM)のマルチターンRLの評価を行う。
我々のベンチマークは8つの異なる言語タスクで構成されており、複数ラウンドの言語相互作用が必要であり、オープンエンド対話やテキストゲームにおける様々なタスクをカバーする。
論文 参考訳(メタデータ) (2023-11-30T03:59:31Z) - Can We Trust AI-Generated Educational Content? Comparative Analysis of
Human and AI-Generated Learning Resources [4.528957284486784]
大規模言語モデル(LLMs)は、大規模に学習教材を迅速に作成する上で、有望なソリューションを提供するように見える。
学習指導活動の一環として,LLMが生み出す資源の質と学生が生み出す資源の質を比較した。
その結果、学生が認識するAI生成リソースの品質は、同僚が生成するリソースの品質と同等であることがわかった。
論文 参考訳(メタデータ) (2023-06-18T09:49:21Z) - A Survey of Large Language Models [81.06947636926638]
言語モデリングは、過去20年間、言語理解と生成のために広く研究されてきた。
近年,大規模コーパス上でのトランスフォーマーモデルの事前学習により,事前学習言語モデル (PLM) が提案されている。
パラメータスケールの違いを識別するために、研究コミュニティは大規模言語モデル (LLM) という用語を提唱した。
論文 参考訳(メタデータ) (2023-03-31T17:28:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。