論文の概要: Tag Prediction of Competitive Programming Problems using Deep Learning
Techniques
- arxiv url: http://arxiv.org/abs/2308.01863v1
- Date: Thu, 3 Aug 2023 16:39:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-04 13:18:12.269193
- Title: Tag Prediction of Competitive Programming Problems using Deep Learning
Techniques
- Title(参考訳): ディープラーニング技術を用いた競合プログラミング問題のタグ予測
- Authors: Taha Lokat, Divyam Prajapati, Shubhada Labde
- Abstract要約: プログラミング能力を開発するためのよく似た方法は、競争力のあるプログラミングである。
初心者にとってもベテランプログラマにとっても,幅広い質問を交わすことは難しいかも知れません。
これは、テキスト分類を使用して質問のタグ付けを自動的に行うことができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: In the past decade, the amount of research being done in the fields of
machine learning and deep learning, predominantly in the area of natural
language processing (NLP), has risen dramatically. A well-liked method for
developing programming abilities like logic building and problem solving is
competitive programming. It can be tough for novices and even veteran
programmers to traverse the wide collection of questions due to the massive
number of accessible questions and the variety of themes, levels of difficulty,
and questions offered. In order to help programmers find questions that are
appropriate for their knowledge and interests, there is a need for an automated
method. This can be done using automated tagging of the questions using Text
Classification. Text classification is one of the important tasks widely
researched in the field of Natural Language Processing. In this paper, we
present a way to use text classification techniques to determine the domain of
a competitive programming problem. A variety of models, including are
implemented LSTM, GRU, and MLP. The dataset has been scraped from Codeforces, a
major competitive programming website. A total of 2400 problems were scraped
and preprocessed, which we used as a dataset for our training and testing of
models. The maximum accuracy reached using our model is 78.0% by MLP(Multi
Layer Perceptron).
- Abstract(参考訳): 過去10年間で、機械学習とディープラーニングの分野で行われている研究の量は、主に自然言語処理(NLP)分野において劇的に増加している。
論理構築や問題解決といったプログラミング能力を開発するためのよく知られた方法は、競合プログラミングである。
初心者やベテランプログラマでさえ、大量のアクセス可能な質問や、さまざまなテーマ、難易度、提供する質問などによって、幅広い質問の集まりを横断することは困難である。
プログラマが知識や関心事に適した質問を見つけるのを助けるために、自動化されたメソッドが必要である。
これは、テキスト分類を使用して質問の自動タグ付けを使って行うことができる。
テキスト分類は自然言語処理の分野で広く研究されている重要なタスクの1つである。
本稿では,テキスト分類手法を用いて競合プログラミング問題の領域を決定する手法を提案する。
LSTM、GRU、MLPを含む様々なモデルが実装されている。
データセットは、主要な競合するプログラミングウェブサイトであるCodeforcesから取り除かれた。
合計で2400の問題がスクラップされ、事前処理され、モデルのトレーニングとテストのためのデータセットとして使用しました。
本モデルを用いた最大精度はmlp(multi layer perceptron)で78.0%である。
関連論文リスト
- Estimating Difficulty Levels of Programming Problems with Pre-trained Model [18.92661958433282]
プログラミング問題の難易度は、生徒の適応学習を導く上で不可欠な基準となっている。
テキスト記述とコードの解の例から,各プログラム問題の難易度自動推定の問題を定式化する。
この問題に対処するため,テキストモダリティとコードモダリティの2つの事前学習モデルを統一モデルに分割することを提案する。
論文 参考訳(メタデータ) (2024-06-13T05:38:20Z) - Probeable Problems for Beginner-level Programming-with-AI Contests [0.0]
我々は,複数の機関の学部生を対象に,2時間のプログラミングコンテストを実施している。
学生は個人またはグループで働けるようになり、AIツールを自由に使えるようになった。
これらのグループによって提出されたコードが、欠落した詳細を特定できる範囲を分析し、形式的および非公式なCS教育文脈における学習を支援する方法を特定する。
論文 参考訳(メタデータ) (2024-05-24T00:39:32Z) - Comprehensive Implementation of TextCNN for Enhanced Collaboration between Natural Language Processing and System Recommendation [1.7692743931394748]
本稿では,NLPの3つのコアタスクにおけるディープラーニングの適用状況について分析する。
テキスト生成、テキスト分類、意味解析において、敵対的手法がもたらす課題を考慮に入れている。
テキスト分類タスクに関する実証的研究は,対話型統合学習の有効性を示す。
論文 参考訳(メタデータ) (2024-03-12T07:25:53Z) - Problem-Solving Guide: Predicting the Algorithm Tags and Difficulty for Competitive Programming Problems [7.955313479061445]
ほとんどのテック企業は、Google、Meta、Amazonなど、アルゴリズムの問題を解決する能力を必要としている。
本研究は,アルゴリズムタグをエンジニアや開発者の有用なツールとして予測する作業に対処する。
また,この問題の解決に要する時間を計算するための有用なガイダンスとして,アルゴリズム問題の難易度を予測することを検討する。
論文 参考訳(メタデータ) (2023-10-09T15:26:07Z) - Competition-Level Code Generation with AlphaCode [74.87216298566942]
より深い推論を必要とする問題に対する新しいソリューションを作成することができるコード生成システムであるAlphaCodeを紹介する。
Codeforcesプラットフォームにおける最近のプログラミングコンペティションのシミュレーション評価において、AlphaCodeは平均54.3%のランキングを達成した。
論文 参考訳(メタデータ) (2022-02-08T23:16:31Z) - Detecting Requirements Smells With Deep Learning: Experiences,
Challenges and Future Work [9.44316959798363]
本研究の目的は,手動でラベル付きデータセットを作成し,アンサンブル学習,深層学習(DL),単語埋め込みや伝達学習といった手法を用いて一般化問題を克服することで,従来の作業を改善することである。
現在の調査結果は、データセットが不均衡であり、どのクラスをもっと追加すべきかを示している。
論文 参考訳(メタデータ) (2021-08-06T12:45:15Z) - Measuring Coding Challenge Competence With APPS [54.22600767666257]
コード生成のベンチマークであるAPPSを紹介する。
私たちのベンチマークには1万の問題が含まれています。
GPT-Neoのような最近のモデルでは、導入問題のテストケースの約15%をパスできる。
論文 参考訳(メタデータ) (2021-05-20T17:58:42Z) - Few-Shot Complex Knowledge Base Question Answering via Meta
Reinforcement Learning [55.08037694027792]
複雑な質問答え(CQA)は、知識ベース(KB)上の複雑な自然言語質問に答える。
従来のニューラルプログラム誘導(NPI)アプローチは、質問の種類が異なる場合、不均一なパフォーマンスを示す。
本稿では,CQAにおけるプログラム誘導のためのメタ強化学習手法を提案する。
論文 参考訳(メタデータ) (2020-10-29T18:34:55Z) - Retrieve, Program, Repeat: Complex Knowledge Base Question Answering via
Alternate Meta-learning [56.771557756836906]
本稿では,弱い監督からプログラマと交互に検索モデルを自動的に学習する手法を提案する。
本システムでは,知識ベースに対する複雑な質問応答を行う大規模タスクにおいて,最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2020-10-29T18:28:16Z) - Understanding Unnatural Questions Improves Reasoning over Text [54.235828149899625]
生テキストに対する複雑な質問応答(CQA)は難しい課題である。
効果的なCQAモデルを学ぶには、大量の人間が注釈付けしたデータが必要である。
我々は、自然の人間生成の質問を非自然の機械生成の質問に投影することで、高品質なプログラマ(パーザ)を学ぶという課題に対処する。
論文 参考訳(メタデータ) (2020-10-19T10:22:16Z) - Inquisitive Question Generation for High Level Text Comprehension [60.21497846332531]
InQUISITIVEは、文書を読みながら19K質問を抽出するデータセットである。
我々は,読者が情報を求めるための実践的な戦略に携わることを示す。
我々は, GPT-2に基づく質問生成モデルを評価し, 妥当な質問を生成することができることを示す。
論文 参考訳(メタデータ) (2020-10-04T19:03:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。