論文の概要: Logic Error Localization in Student Programming Assignments Using Pseudocode and Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2410.21282v1
- Date: Fri, 11 Oct 2024 01:46:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-03 08:20:18.999773
- Title: Logic Error Localization in Student Programming Assignments Using Pseudocode and Graph Neural Networks
- Title(参考訳): Pseudocode と Graph Neural Networks を用いた学生プログラミング課題における論理誤差の局所化
- Authors: Zhenyu Xu, Kun Zhang, Victor S. Sheng,
- Abstract要約: そこで我々は,学生プログラミングの課題における論理誤差を線形レベルでローカライズするシステムを開発した。
グラフニューラルネットワークを用いて、論理エラーの局所化と修正を提案する。
実験結果は有望であり、上位10行の論理誤差に対して99.2%の局所化精度を示す。
- 参考スコア(独自算出の注目度): 31.600659350609476
- License:
- Abstract: Pseudocode is extensively used in introductory programming courses to instruct computer science students in algorithm design, utilizing natural language to define algorithmic behaviors. This learning approach enables students to convert pseudocode into source code and execute it to verify their algorithms' correctness. This process typically introduces two types of errors: syntax errors and logic errors. Syntax errors are often accompanied by compiler feedback, which helps students identify incorrect lines. In contrast, logic errors are more challenging because they do not trigger compiler errors and lack immediate diagnostic feedback, making them harder to detect and correct. To address this challenge, we developed a system designed to localize logic errors within student programming assignments at the line level. Our approach utilizes pseudocode as a scaffold to build a code-pseudocode graph, connecting symbols from the source code to their pseudocode counterparts. We then employ a graph neural network to both localize and suggest corrections for logic errors. Additionally, we have devised a method to efficiently gather logic-error-prone programs during the syntax error correction process and compile these into a dataset that includes single and multiple line logic errors, complete with indices of the erroneous lines. Our experimental results are promising, demonstrating a localization accuracy of 99.2% for logic errors within the top-10 suspected lines, highlighting the effectiveness of our approach in enhancing students' coding proficiency and error correction skills.
- Abstract(参考訳): Pseudocodeは、コンピュータサイエンスの学生にアルゴリズム設計を教え、自然言語を使ってアルゴリズムの振る舞いを定義するための入門プログラミングコースで広く使われている。
この学習アプローチにより、学生は擬似コードをソースコードに変換し、それを実行してアルゴリズムの正確性を検証することができる。
このプロセスは通常、構文エラーと論理エラーの2種類のエラーを発生させる。
構文エラーは、しばしばコンパイラフィードバックが伴い、学生が間違った行を識別するのに役立つ。
対照的に、ロジックエラーは、コンパイラエラーをトリガーせず、即時診断フィードバックを欠いているため、検出と修正が難しくなるため、より難しい。
この課題に対処するため、我々は、学生プログラミング課題の論理的誤りをラインレベルでローカライズするシステムを開発した。
提案手法では,擬似コードを足場として利用して,ソースコードからのシンボルと擬似符号のシンボルを接続するコード-擬似符号グラフを構築する。
次に、グラフニューラルネットワークを用いて、論理エラーのローカライズと修正を提案する。
さらに,構文誤り訂正プロセス中に論理エラー発生プログラムを効率よく収集し,誤行のインデックスを完備した単行・複数行の論理誤りを含むデータセットにコンパイルする手法も考案した。
実験結果は,上位10行の論理誤差に対して99.2%のローカライズ精度を示し,学習者の符号化能力と誤り訂正能力を高めるためのアプローチの有効性を強調した。
関連論文リスト
- Combining Logic with Large Language Models for Automatic Debugging and Repair of ASP Programs [1.0650780147044159]
FormHeは、ロジックベースのテクニックと大規模言語モデルを組み合わせて、Answer Set Programmingの課題を特定し、修正するツールである。
以上の結果から,FormHeは94%の症例の欠陥を正確に検出し,誤りの58%を修復することに成功した。
論文 参考訳(メタデータ) (2024-10-28T12:30:48Z) - LLM Critics Help Catch Bugs in Mathematics: Towards a Better Mathematical Verifier with Natural Language Feedback [71.95402654982095]
本研究では,自然言語フィードバック型検証器Math-Minosを提案する。
実験の結果,少量の自然言語フィードバックが検証器の性能を大幅に向上させることがわかった。
論文 参考訳(メタデータ) (2024-06-20T06:42:27Z) - Improving LLM Classification of Logical Errors by Integrating Error Relationship into Prompts [1.7095867620640115]
プログラミング教育の重要な側面は、エラーメッセージの理解と処理である。
プログラムがプログラマの意図に反して動作している「論理エラー」は、コンパイラからエラーメッセージを受け取らない。
そこで本研究では,LLMを用いた論理的誤り検出手法を提案し,この手法を用いて,Chain-of-ThoughtとTree-of-Thoughtのプロンプトのエラータイプ間の関係を推定する。
論文 参考訳(メタデータ) (2024-04-30T08:03:22Z) - Language Models as Compilers: Simulating Pseudocode Execution Improves Algorithmic Reasoning in Language Models [17.76252625790628]
本稿では,言語モデルの推論過程を2段階に分解するフレームワークであるThink-and-Executeについて述べる。
7つのアルゴリズム的推論タスクについて広範な実験を行い、思考と実行の有効性を実証する。
論文 参考訳(メタデータ) (2024-04-03T08:49:11Z) - Decoding Logic Errors: A Comparative Study on Bug Detection by Students
and Large Language Models [5.162225137921625]
大規模言語モデル(LLM)は、最近、様々な計算タスクにおいて驚くべきパフォーマンスを示した。
GPT-3 と GPT-4 の2つの LLM の性能について検討した。
論文 参考訳(メタデータ) (2023-11-27T17:28:33Z) - Testing the Accuracy of Surface Code Decoders [55.616364225463066]
大規模でフォールトトレラントな量子計算は量子エラー訂正符号(QECC)によって実現される
本研究は,QECC復号方式の精度と有効性をテストするための最初の体系的手法である。
論文 参考訳(メタデータ) (2023-11-21T10:22:08Z) - Understanding and Mitigating Classification Errors Through Interpretable
Token Patterns [58.91023283103762]
容易に解釈可能な用語でエラーを特徴付けることは、分類器が体系的なエラーを起こす傾向にあるかどうかを洞察する。
正しい予測と誤予測を区別するトークンのパターンを発見することを提案する。
提案手法であるPremiseが実際によく動作することを示す。
論文 参考訳(メタデータ) (2023-11-18T00:24:26Z) - Refining neural network predictions using background knowledge [68.35246878394702]
学習システムにおける論理的背景知識を用いて,ラベル付きトレーニングデータの不足を補うことができることを示す。
そこで本研究では,修正された予測を元の予測に近い精度で検出する微分可能精細関数を提案する。
このアルゴリズムは、複雑なSATの公式に対して、非常に少ない繰り返しで最適に洗練され、勾配降下ができない解がしばしば見つかる。
論文 参考訳(メタデータ) (2022-06-10T10:17:59Z) - Scaling up reservoir engineering for error-correcting codes [0.0]
我々は、ビットフリップエラーに対処する繰り返し符号の提案と、論理量子ビットを符号化するネットワークのスケールアップ方法に焦点を当てる。
課題は、実験的な実現に向けて現実的でありながら、高次のエラーを自律的に修正できるネットワークアーキテクチャを考案することであった。
論文 参考訳(メタデータ) (2020-10-06T16:14:13Z) - On the Robustness of Language Encoders against Grammatical Errors [66.05648604987479]
我々は、非ネイティブ話者から実際の文法的誤りを収集し、これらの誤りをクリーンテキストデータ上でシミュレートするために敵攻撃を行う。
結果,全ての試験モデルの性能は影響するが,影響の程度は異なることがわかった。
論文 参考訳(メタデータ) (2020-05-12T11:01:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。