論文の概要: Predicting Participants' Performance in Programming Contests using Deep
Learning Techniques
- arxiv url: http://arxiv.org/abs/2302.05602v1
- Date: Sat, 11 Feb 2023 04:53:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-14 19:38:20.066978
- Title: Predicting Participants' Performance in Programming Contests using Deep
Learning Techniques
- Title(参考訳): 深層学習手法を用いたプログラミングコンテストにおける参加者のパフォーマンス予測
- Authors: Md Mahbubur Rahman, Badhan Chandra Das, Al Amin Biswas, Md. Musfique
Anwar
- Abstract要約: 本稿では,今後の競技における特定の競技者のパフォーマンスを予測し,その競技後の評価を,その競技者の実践と過去の競技者のパフォーマンスに基づいて予測する枠組みを提案する。
- 参考スコア(独自算出の注目度): 3.5453687085580308
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent days, the number of technology enthusiasts is increasing day by day
with the prevalence of technological products and easy access to the internet.
Similarly, the amount of people working behind this rapid development is rising
tremendously. Computer programmers consist of a large portion of those
tech-savvy people. Codeforces, an online programming and contest hosting
platform used by many competitive programmers worldwide. It is regarded as one
of the most standardized platforms for practicing programming problems and
participate in programming contests. In this research, we propose a framework
that predicts the performance of any particular contestant in the upcoming
competitions as well as predicts the rating after that contest based on their
practice and the performance of their previous contests.
- Abstract(参考訳): 近年は、技術製品の普及とインターネットへのアクセスの容易化により、テクノロジー愛好家が日々増えている。
同様に、この急速な開発に携わる人々の数は大幅に増加している。
コンピュータプログラマーは、テクノロジーに精通した人々の大部分から成り立っている。
codeforcesはオンラインプログラミングとコンテストのホスティングプラットフォームで、世界中の多くのプログラマが使っている。
プログラミング問題を実践し、プログラミングコンテストに参加するための最も標準化されたプラットフォームの一つと見なされている。
本研究では,今後の競技における特定の競技者のパフォーマンスを予測し,その競技後の評価を,競技者の実践と過去の競技者のパフォーマンスに基づいて予測する枠組みを提案する。
関連論文リスト
- CodeElo: Benchmarking Competition-level Code Generation of LLMs with Human-comparable Elo Ratings [70.95565672516979]
LiveCodeBenchやUSACOといった既存のベンチマークは、プライベートテストケースの可用性の欠如、特別な審査員のサポートの欠如、不整合実行環境のために不足している。
CodeEloは標準化された競合レベルのコード生成ベンチマークで、これらすべての課題に初めて効果的に対処する。
論文 参考訳(メタデータ) (2025-01-02T13:49:00Z) - Characterizing Information Shared by Participants to Coding Challenges: The Case of Advent of Code [3.491739278976015]
Advent of Code (AoC)は、さまざまなスキルセットとレベルのプログラミングパズルを解く必要がある一般的なコーディングチャレンジである。
ユーザ参加、チャレンジ中の新しいプログラミング言語の採用、および2つのプログラム言語間のレジリエンスについて、Stack Overflowの調査に基づいて検討する。
論文 参考訳(メタデータ) (2024-12-03T09:07:13Z) - Amplifying human performance in combinatorial competitive programming [41.59043428241635]
私たちは競争力のあるプログラミングに重点を置いています。そこでは、難解な問題に対する、可能な限り優れた解決策を見つけることを目的としています。
私たちは、GoogleのNPハードなソフトウェアエンジニアリング問題に触発されたグローバルなチームプログラミングコンペであるHash Codeの以前のイテレーションにアプローチをデプロイしています。
私たちのソリューションは、ベースラインから得られたスコアを大幅に改善し、以前のHash Codeオンライン資格ラウンドのトップパーセンタイルに到達しました。
論文 参考訳(メタデータ) (2024-11-29T14:40:36Z) - Are Large Language Models a Threat to Programming Platforms? An Exploratory Study [2.304914644824781]
大規模言語モデル(LLM)は、様々な困難を伴う多様なプログラミング課題に対処する。
本研究では,様々な難易度を持つプラットフォーム間の多様なプログラミング課題にLLMが取り組む能力について検討する。
私たちはLeetCodeから98の問題、Codeforcesから126の問題を15のカテゴリでテストしました。
論文 参考訳(メタデータ) (2024-09-09T17:30:20Z) - The Impact of Generative AI-Powered Code Generation Tools on Software Engineer Hiring: Recruiters' Experiences, Perceptions, and Strategies [4.557635080377692]
本研究では,GenAIを利用したコード生成ツールについて,採用者の経験と認識について考察する。
業界の専門家32人を対象に行った調査では、ほとんどの参加者はそのようなツールに精通しているが、ほとんどの組織は、これらのツールの使用・知識を考慮に入れた候補評価手法を調整していない。
ほとんどの参加者は、GenAIを利用したコード生成ツールをコンピュータサイエンスカリキュラムに組み込むことが重要であると考えている。
論文 参考訳(メタデータ) (2024-09-02T00:00:29Z) - Benchmarking Robustness and Generalization in Multi-Agent Systems: A
Case Study on Neural MMO [50.58083807719749]
IJCAI 2022で開催されている第2回Neural MMOチャレンジの結果を報告する。
この競合はマルチエージェントシステムの堅牢性と一般化をターゲットにしている。
環境ラッパー、ベースライン、可視化ツール、そしてさらなる研究のための選択されたポリシーを含むベンチマークをオープンソースにします。
論文 参考訳(メタデータ) (2023-08-30T07:16:11Z) - Stimulating student engagement with an AI board game tournament [0.0]
本稿では,2年生にボードゲームに適用した検索手法の紹介を行うプロジェクトベース・コンペティションベースの学士課程について紹介する。
2人のグループがネットワークプログラミングとAIメソッドを使用して、今年のボードゲームトーナメントに出場するためにAIエージェントを構築する必要があります。
論文 参考訳(メタデータ) (2023-04-22T11:22:00Z) - Retrospective on the 2021 BASALT Competition on Learning from Human
Feedback [92.37243979045817]
競争の目的は、人間のフィードバック(LfHF)技術から学び、オープンワールドの課題を解決するエージェントへの研究を促進することであった。
LfHF技術の使用を義務付けるのではなく、ビデオゲームMinecraftで達成すべき自然言語の4つのタスクについて説明した。
チームは、様々な可能な人間のフィードバックタイプにまたがる多様なLfHFアルゴリズムを開発した。
論文 参考訳(メタデータ) (2022-04-14T17:24:54Z) - Competition-Level Code Generation with AlphaCode [74.87216298566942]
より深い推論を必要とする問題に対する新しいソリューションを作成することができるコード生成システムであるAlphaCodeを紹介する。
Codeforcesプラットフォームにおける最近のプログラミングコンペティションのシミュレーション評価において、AlphaCodeは平均54.3%のランキングを達成した。
論文 参考訳(メタデータ) (2022-02-08T23:16:31Z) - Distributed Deep Learning in Open Collaborations [49.240611132653456]
協調学習に特化して設計された新しいアルゴリズムフレームワークを提案する。
現実的な条件下でのSwaVとALBERTの事前学習に対するアプローチの有効性を実証し,コストのごく一部で従来の設定に匹敵する性能を実現する。
論文 参考訳(メタデータ) (2021-06-18T16:23:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。