論文の概要: QACP: An Annotated Question Answering Dataset for Assisting Chinese
Python Programming Learners
- arxiv url: http://arxiv.org/abs/2402.07913v2
- Date: Fri, 23 Feb 2024 02:35:41 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-26 17:20:21.549769
- Title: QACP: An Annotated Question Answering Dataset for Assisting Chinese
Python Programming Learners
- Title(参考訳): qacp:中国のpythonプログラミング学習者を支援する注釈付き質問応答データセット
- Authors: Rui Xiao, Lu Han, Xiaoying Zhou, Jiong Wang, Na Zong, Pengyu Zhang
- Abstract要約: 本稿では,Python学習者を対象とした中国語質問・回答データセットを提案する。
オンラインプログラミング教育の有効性と品質を高めるために設計されている。
- 参考スコア(独自算出の注目度): 10.90557801193242
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In online learning platforms, particularly in rapidly growing computer
programming courses, addressing the thousands of students' learning queries
requires considerable human cost. The creation of intelligent assistant large
language models (LLMs) tailored for programming education necessitates distinct
data support. However, in real application scenarios, the data resources for
training such LLMs are relatively scarce. Therefore, to address the data
scarcity in intelligent educational systems for programming, this paper
proposes a new Chinese question-and-answer dataset for Python learners. To
ensure the authenticity and reliability of the sources of the questions, we
collected questions from actual student questions and categorized them
according to various dimensions such as the type of questions and the type of
learners. This annotation principle is designed to enhance the effectiveness
and quality of online programming education, providing a solid data foundation
for developing the programming teaching assists (TA). Furthermore, we conducted
comprehensive evaluations of various LLMs proficient in processing and
generating Chinese content, highlighting the potential limitations of general
LLMs as intelligent teaching assistants in computer programming courses.
- Abstract(参考訳): オンライン学習プラットフォーム、特に急速に成長するコンピュータプログラミングコースでは、何千もの学生の学習クエリに対処するにはかなりの人的コストが必要となる。
プログラミング教育に適したインテリジェントアシスタント大言語モデル(LLM)の作成は、異なるデータサポートを必要とする。
しかし、実際のアプリケーションシナリオでは、そのようなLLMをトレーニングするデータリソースは比較的少ない。
そこで本稿では,プログラミングのための知的教育システムにおけるデータ不足に対処するために,python学習者のための新しい中国語問答データセットを提案する。
質問の情報源の信頼性と信頼性を確保するため,実際の学生の質問から質問を収集し,質問の種類や学習者のタイプなど,様々な次元に分類した。
このアノテーション原則は、オンラインプログラミング教育の有効性と品質を高めるために設計され、プログラミング指導支援(ta)を開発するための堅固なデータ基盤を提供する。
さらに,中国語内容の処理・生成に長けた各種LLMの総合的な評価を行い,コンピュータプログラミングコースにおける知的指導支援としての一般LLMの潜在的な限界を強調した。
関連論文リスト
- On the Opportunities of Large Language Models for Programming Process Data [6.023152721616896]
本稿では,大規模言語モデルを用いてプログラミングプロセスデータを解析する機会について論じる。
議論を補完するため、我々はLLMを利用してプログラミングプロセスを自動的に要約するケーススタディを概説した。
論文 参考訳(メタデータ) (2024-11-01T07:20:01Z) - Large Language Models in Computer Science Education: A Systematic Literature Review [7.240148550817106]
大規模言語モデル(LLM)は、幅広い自然言語処理タスク(NLP)において、ますます良くなっている。
最近、これらのモデルは、自然言語(NL)とプログラミング言語(PL)のギャップを埋めて、その能力をコーディングタスクに拡張した。
論文 参考訳(メタデータ) (2024-10-21T17:49:50Z) - Knowledge Tagging with Large Language Model based Multi-Agent System [17.53518487546791]
本稿では,従来のアルゴリズムの限界に対処するマルチエージェントシステムについて検討する。
我々は,従来の手法が抱えていた課題を克服する上で,LLMベースのマルチエージェントシステムの可能性を強調した。
論文 参考訳(メタデータ) (2024-09-12T21:39:01Z) - YuLan: An Open-source Large Language Model [179.59272970659677]
本稿では,12億ドルのパラメータを持つオープンソースの大規模言語モデル (LLM) であるYuLanの開発について述べる。
YuLanのベースモデルは、英語、中国語、多言語テキストを含む多種多様なコーパスから派生した約1.7ドルのトークンで事前訓練されている。
これらの段階にまたがってカリキュラム学習フレームワークを考案し,LLMが知識を習得し易い方法で学習することを支援する。
論文 参考訳(メタデータ) (2024-06-28T11:52:53Z) - Knowledge Tagging System on Math Questions via LLMs with Flexible Demonstration Retriever [48.5585921817745]
大きな言語モデル(LLM)は知識タグ付けタスクを自動化するために使われる。
算数問題における知識タグ付けタスクに対するゼロショットと少数ショットの結果の強い性能を示す。
強化学習に基づくデモレトリバーの提案により,異なるサイズのLLMの潜在能力を活用できた。
論文 参考訳(メタデータ) (2024-06-19T23:30:01Z) - CSEPrompts: A Benchmark of Introductory Computer Science Prompts [11.665831944836118]
AI、機械学習、NLPの最近の進歩は、新しい世代のLarge Language Models(LLM)の開発に繋がった。
商業的応用により、この技術は一般大衆に利用できるようになったため、学術的および専門的な目的のために高品質なテキストを作成するためにLLMを使用することが可能である。
学校や大学は、学生によるAI生成コンテンツの利用の増加に気づいており、この新しい技術とその潜在的な誤用の影響を調査している。
論文 参考訳(メタデータ) (2024-04-03T07:55:57Z) - Automate Knowledge Concept Tagging on Math Questions with LLMs [48.5585921817745]
知識概念のタグ付けは、現代の知的教育応用において重要な役割を担っている。
伝統的に、これらの注釈は教育専門家の助けを借りて手作業で行われてきた。
本稿では,Large Language Models (LLM) を用いたタグ付けタスクの自動化について検討する。
論文 参考訳(メタデータ) (2024-03-26T00:09:38Z) - Generative Multi-Modal Knowledge Retrieval with Large Language Models [75.70313858231833]
マルチモーダル知識検索のための革新的なエンドツーエンド生成フレームワークを提案する。
我々のフレームワークは,大規模言語モデル(LLM)が仮想知識ベースとして効果的に機能するという事実を生かしている。
強いベースラインと比較すると,すべての評価指標に対して3.0%から14.6%の大幅な改善が見られた。
論文 参考訳(メタデータ) (2024-01-16T08:44:29Z) - DIALIGHT: Lightweight Multilingual Development and Evaluation of
Task-Oriented Dialogue Systems with Large Language Models [76.79929883963275]
DIALIGHTは多言語タスク指向対話(ToD)システムの開発と評価のためのツールキットである。
ローカル発話レベルとグローバル対話レベルの両方において、人間のきめ細かい評価のためのセキュアでユーザフレンドリーなWebインターフェースを備えている。
評価の結果, PLMの微調整により精度とコヒーレンスが向上する一方, LLMベースのシステムは多様で類似した応答を生成するのに優れていた。
論文 参考訳(メタデータ) (2024-01-04T11:27:48Z) - CulturaX: A Cleaned, Enormous, and Multilingual Dataset for Large
Language Models in 167 Languages [86.90220551111096]
大規模言語モデル(LLM)のトレーニングデータセットは、完全には公開されないことが多い。
我々は167言語で6.3兆のトークンを持つ相当な多言語データセットであるCulturaXを紹介する。
論文 参考訳(メタデータ) (2023-09-17T23:49:10Z) - Leveraging Large Language Model and Story-Based Gamification in
Intelligent Tutoring System to Scaffold Introductory Programming Courses: A
Design-Based Research Study [6.773393436953262]
本研究では,大規模言語モデルと大規模言語モデルについて考察する。
ギャンブラーは コーディングの学習を足場にして 増加させます
中国の学生は入門プログラミングコースに属しています。
論文 参考訳(メタデータ) (2023-02-25T04:07:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。