論文の概要: CS1QA: A Dataset for Assisting Code-based Question Answering in an
Introductory Programming Course
- arxiv url: http://arxiv.org/abs/2210.14494v1
- Date: Wed, 26 Oct 2022 05:40:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-27 14:22:34.009200
- Title: CS1QA: A Dataset for Assisting Code-based Question Answering in an
Introductory Programming Course
- Title(参考訳): cs1qa: 入門プログラミングコースでコードベースの質問応答を支援するデータセット
- Authors: Changyoon Lee, Yeon Seonwoo, Alice Oh
- Abstract要約: CS1QAは、Pythonを使った入門プログラミングクラスでチャットログから収集された9,237の質問応答ペアで構成されている。
各質問には生徒のコードと、質問に答えるコードの一部が添付されている。
- 参考スコア(独自算出の注目度): 13.61096948994569
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: We introduce CS1QA, a dataset for code-based question answering in the
programming education domain. CS1QA consists of 9,237 question-answer pairs
gathered from chat logs in an introductory programming class using Python, and
17,698 unannotated chat data with code. Each question is accompanied with the
student's code, and the portion of the code relevant to answering the question.
We carefully design the annotation process to construct CS1QA, and analyze the
collected dataset in detail. The tasks for CS1QA are to predict the question
type, the relevant code snippet given the question and the code and retrieving
an answer from the annotated corpus. Results for the experiments on several
baseline models are reported and thoroughly analyzed. The tasks for CS1QA
challenge models to understand both the code and natural language. This unique
dataset can be used as a benchmark for source code comprehension and question
answering in the educational setting.
- Abstract(参考訳): CS1QAはプログラミング教育分野におけるコードに基づく質問応答のためのデータセットである。
CS1QAは、Pythonを使った入門プログラミングクラスでチャットログから収集された9,237の質問応答ペアと、コード付き無注釈のチャットデータ17,698である。
各質問には学生のコードが添付され、その質問に答えるコードの一部が添付される。
我々は、CS1QAを構築するためのアノテーションプロセスを慎重に設計し、収集したデータセットを詳細に分析する。
CS1QAのタスクは、質問タイプ、関連するコードスニペットに与えられた質問とコードを予測し、注釈付きコーパスから回答を取得することである。
複数のベースラインモデルにおける実験の結果を報告し,徹底的に解析した。
CS1QAのタスクは、コードと自然言語の両方を理解するためにモデルに挑戦する。
このユニークなデータセットは、教育環境でソースコードの理解と質問応答のベンチマークとして使用できる。
関連論文リスト
- PCoQA: Persian Conversational Question Answering Dataset [12.07607688189035]
PCoQAデータセットは、9,026のコンテキスト駆動質問を含む情報検索ダイアログを含むリソースである。
PCoQAは、以前の質問応答データセットと比較して、新しい課題を示すように設計されている。
本稿では,PCoQAデータセットを包括的に提示するだけでなく,各種ベンチマークモデルの性能も報告する。
論文 参考訳(メタデータ) (2023-12-07T15:29:34Z) - Open-Set Knowledge-Based Visual Question Answering with Inference Paths [79.55742631375063]
知識に基づく視覚的質問回答(KB-VQA)の目的は、外部知識ベースの助けを借りて質問に対する正しい回答を提供することである。
KB-VQA, Graph pATH ranker (GATHER for brevity) の新しいレトリバーランカパラダイムを提案する。
具体的には、グラフの構築、プルーニング、パスレベルのランク付けが含まれており、正確な回答を検索するだけでなく、推論パスを提供して推論プロセスを説明する。
論文 参考訳(メタデータ) (2023-10-12T09:12:50Z) - Semantic Parsing for Conversational Question Answering over Knowledge
Graphs [63.939700311269156]
本研究では,ユーザの質問にSparqlパースとアノテートし,システム回答が実行結果に対応するデータセットを開発する。
本稿では,2つの意味解析手法を提案し,その課題を強調した。
私たちのデータセットとモデルはhttps://github.com/Edinburgh/SPICE.orgで公開されています。
論文 参考訳(メタデータ) (2023-01-28T14:45:11Z) - CodeQueries: A Dataset of Semantic Queries over Code [7.0864879068510005]
我々はPythonコードにセマンティッククエリーのラベル付きデータセットであるCodeQueriesをコントリビュートする。
既存のデータセットと比較して、CodeQueriesでは、クエリはコードセマンティクスであり、コンテキストはファイルレベルであり、答えはコードスパンである。
CodeQueriesのサブセット上で,ゼロショットと少数ショット設定で大規模言語モデル(GPT3.5-Turbo)を評価する。
論文 参考訳(メタデータ) (2022-09-17T17:09:30Z) - Write a Line: Tests with Answer Templates and String Completion Hints
for Self-Learning in a CS1 Course [0.0]
本報告では,497名の学生を対象に,CS1コースにおける文字列補完ヒント付き正規表現型質問を用いた4年間の成績を報告する。
評価結果から,Perl互換の正規表現は,1行のコードを記述する必要のある質問に対して,良好な精度とリコール(99%以上)を提供することが示された。
論文 参考訳(メタデータ) (2022-04-19T17:53:35Z) - Solving Linear Algebra by Program Synthesis [1.0660480034605238]
我々は、MITのLinear Algebra 18.06コースとコロンビア大学のComputational Linear Algebra COMS3251コースを、インタラクティブなプログラム合成によって完全な精度で解決する。
この驚くほど強い結果は、コース質問をプログラミングタスクに変換し、プログラムを実行して正しい回答を生成することで達成されます。
論文 参考訳(メタデータ) (2021-11-16T01:16:43Z) - CodeQA: A Question Answering Dataset for Source Code Comprehension [82.63394952538292]
コードスニペットと質問が与えられたら、テキストによる回答を生成する必要がある。
CodeQAには、119,778の問合せペアを持つJavaデータセットと、70,085の問合せペアを持つPythonデータセットが含まれている。
論文 参考訳(メタデータ) (2021-09-17T06:06:38Z) - Few-Shot Complex Knowledge Base Question Answering via Meta
Reinforcement Learning [55.08037694027792]
複雑な質問答え(CQA)は、知識ベース(KB)上の複雑な自然言語質問に答える。
従来のニューラルプログラム誘導(NPI)アプローチは、質問の種類が異なる場合、不均一なパフォーマンスを示す。
本稿では,CQAにおけるプログラム誘導のためのメタ強化学習手法を提案する。
論文 参考訳(メタデータ) (2020-10-29T18:34:55Z) - Retrieve, Program, Repeat: Complex Knowledge Base Question Answering via
Alternate Meta-learning [56.771557756836906]
本稿では,弱い監督からプログラマと交互に検索モデルを自動的に学習する手法を提案する。
本システムでは,知識ベースに対する複雑な質問応答を行う大規模タスクにおいて,最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2020-10-29T18:28:16Z) - Understanding Unnatural Questions Improves Reasoning over Text [54.235828149899625]
生テキストに対する複雑な質問応答(CQA)は難しい課題である。
効果的なCQAモデルを学ぶには、大量の人間が注釈付けしたデータが必要である。
我々は、自然の人間生成の質問を非自然の機械生成の質問に投影することで、高品質なプログラマ(パーザ)を学ぶという課題に対処する。
論文 参考訳(メタデータ) (2020-10-19T10:22:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。