論文の概要: Characterizing Information Shared by Participants to Coding Challenges: The Case of Advent of Code
- arxiv url: http://arxiv.org/abs/2412.02290v1
- Date: Tue, 03 Dec 2024 09:07:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-04 15:47:21.338712
- Title: Characterizing Information Shared by Participants to Coding Challenges: The Case of Advent of Code
- Title(参考訳): 参加者が共有する情報の特徴とコーディング課題--コードの進化を事例として
- Authors: Francesco Cauteruccio, Enrico Corradini, Luca Virgili,
- Abstract要約: Advent of Code (AoC)は、さまざまなスキルセットとレベルのプログラミングパズルを解く必要がある一般的なコーディングチャレンジである。
ユーザ参加、チャレンジ中の新しいプログラミング言語の採用、および2つのプログラム言語間のレジリエンスについて、Stack Overflowの調査に基づいて検討する。
- 参考スコア(独自算出の注目度): 3.491739278976015
- License:
- Abstract: Advent of Code (AoC from now on) is a popular coding challenge requiring to solve programming puzzles for a variety of skill sets and levels. AoC follows the advent calendar, therefore it is an annual challenge that lasts for 25 days. AoC participants usually post their solutions on social networks and discuss them online. These challenges are interesting to study since they could highlight the adoption of new tools, the evolution of the developer community, or the technological requirements of well-known companies. For these reasons, we first create a dataset of the 2019-2021 AoC editions containing the discussion threads made on the subreddit {\tt /r/adventofcode}. Then, we propose a model based on stream graphs to best study this context, where we represent its most important actors through time: participants, comments, and programming languages. Thanks to our model, we investigate user participation, adoption of new programming languages during a challenge and between two of them, and resiliency of programming languages based on a Stack Overflow survey. We find that the top-used programming languages are almost the same in the three years, pointing out their importance. Moreover, participants tend to keep the same programming language for the whole challenge, while the ones attending two AoCs usually change it in the next one. Finally, we observe interesting results about the programming languages that are ``Popular'' or ``Loved'' according to the Stack Overflow survey. Firstly, these are the ones adopted for the longest time in an AoC edition, thanks to which users have a high chance of reaching the end of the challenge. Secondly, they are the most chosen when a participant decides to change programming language during the same challenge.
- Abstract(参考訳): Advent of Code(これからのAoC)は、さまざまなスキルセットとレベルのプログラミングパズルを解決する必要がある一般的なコーディングチャレンジである。
AoCは出現暦に従うため、年間25日間のチャレンジである。
AoC参加者は通常、ソリューションをソーシャルネットワークに投稿し、オンラインで議論する。
これらの課題は、新しいツールの採用、開発者コミュニティの進化、あるいはよく知られた企業の技術的要件を強調することができるため、研究が興味深い。
これらの理由から、我々はまず、subreddit {\tt /r/adventofcode}で作成された議論スレッドを含む2019-2021 AoCエディションのデータセットを作成します。
そして、この文脈を最もよく研究するために、ストリームグラフに基づくモデルを提案し、そこでは、参加者、コメント、プログラミング言語など、時間を通して最も重要なアクターを表現します。
当社のモデルにより、ユーザ参加、チャレンジ中の新しいプログラミング言語の採用、および2つのプログラム言語間のレジリエンスについて、Stack Overflowの調査に基づいて検討する。
最上位のプログラミング言語は3年間でほぼ同じであり、その重要性を指摘している。
さらに、参加者はチャレンジ全体に対して同じプログラミング言語を保持する傾向がありますが、AoCの2つの参加者は通常、次のプログラムで変更します。
最後に、Stack Overflowの調査によると、'`Popular''または'`Loved''のプログラミング言語に関する興味深い結果を観察します。
第一に、これらはAoCエディションで最も長く採用されているもので、ユーザーがチャレンジの終わりに到達する確率が高いためです。
第二に、参加者が同じチャレンジでプログラミング言語を変更すると決めたときに最も選択される。
関連論文リスト
- CodeElo: Benchmarking Competition-level Code Generation of LLMs with Human-comparable Elo Ratings [70.95565672516979]
LiveCodeBenchやUSACOといった既存のベンチマークは、プライベートテストケースの可用性の欠如、特別な審査員のサポートの欠如、不整合実行環境のために不足している。
CodeEloは標準化された競合レベルのコード生成ベンチマークで、これらすべての課題に初めて効果的に対処する。
論文 参考訳(メタデータ) (2025-01-02T13:49:00Z) - Hints Help Finding and Fixing Bugs Differently in Python and Text-based Program Representations [28.829745991874816]
プログラム表現は,バグの発見と修正におけるユーザの精度に大きな影響を与えることがわかった。
異なるヒントは、プログラム表現とユーザのアルゴリズム的タスクに対する理解に依存する。
これらの発見は、ユーザにパーソナライズされたサポートを提供する次世代プログラミングツールの設計に影響を及ぼす。
論文 参考訳(メタデータ) (2024-12-17T02:11:53Z) - Speak & Improve Challenge 2025: Tasks and Baseline Systems [28.877872578497854]
Speak & Improve Challenge 2025: Spoken Language Assessment and Feedback"は、ISCA SLaTE 2025ワークショップに関連する課題である。
この課題の目標は、基礎技術と言語学習の両方のフィードバックに関連するタスクを用いて、音声言語アセスメントとフィードバックの研究を進めることである。
この課題には、自動音声認識(ASR)、音声言語アセスメント(SLA)、音声文法誤り訂正(SGEC)、音声文法誤り訂正フィードバック(SGECF)の4つの共通タスクがある。
論文 参考訳(メタデータ) (2024-12-16T17:05:18Z) - Probeable Problems for Beginner-level Programming-with-AI Contests [0.0]
我々は,複数の機関の学部生を対象に,2時間のプログラミングコンテストを実施している。
学生は個人またはグループで働けるようになり、AIツールを自由に使えるようになった。
これらのグループによって提出されたコードが、欠落した詳細を特定できる範囲を分析し、形式的および非公式なCS教育文脈における学習を支援する方法を特定する。
論文 参考訳(メタデータ) (2024-05-24T00:39:32Z) - A Survey of Neural Code Intelligence: Paradigms, Advances and Beyond [84.95530356322621]
この調査は、コードインテリジェンスの発展に関する体系的なレビューを示す。
50以上の代表モデルとその変種、20以上のタスクのカテゴリ、および680以上の関連する広範な研究をカバーしている。
発達軌道の考察に基づいて、コードインテリジェンスとより広範なマシンインテリジェンスとの間の新たな相乗効果について検討する。
論文 参考訳(メタデータ) (2024-03-21T08:54:56Z) - Which is a better programming assistant? A comparative study between
chatgpt and stack overflow [10.861651344753591]
プログラマの生産性を向上させるために,Stack OverflowとChatGPTのパフォーマンスを比較した。
コード品質に関しては、ChatGPTがStack Overflowをはるかに上回り、アルゴリズムやライブラリ関連のタスクの完全化を支援している。
プログラミング支援における2つのプラットフォーム間の相違したパフォーマンスの背景にある理由を明らかにする。
論文 参考訳(メタデータ) (2023-08-26T11:25:18Z) - MCoNaLa: A Benchmark for Code Generation from Multiple Natural Languages [76.93265104421559]
英語以外の自然言語コマンドからコード生成をベンチマークします。
スペイン語,日本語,ロシア語の3言語で896個のNLコードペアを注釈した。
難易度はこれらの3つの言語によって異なるが、全てのシステムは英語にかなり遅れている。
論文 参考訳(メタデータ) (2022-03-16T04:21:50Z) - Competition-Level Code Generation with AlphaCode [74.87216298566942]
より深い推論を必要とする問題に対する新しいソリューションを作成することができるコード生成システムであるAlphaCodeを紹介する。
Codeforcesプラットフォームにおける最近のプログラミングコンペティションのシミュレーション評価において、AlphaCodeは平均54.3%のランキングを達成した。
論文 参考訳(メタデータ) (2022-02-08T23:16:31Z) - Measuring Coding Challenge Competence With APPS [54.22600767666257]
コード生成のベンチマークであるAPPSを紹介する。
私たちのベンチマークには1万の問題が含まれています。
GPT-Neoのような最近のモデルでは、導入問題のテストケースの約15%をパスできる。
論文 参考訳(メタデータ) (2021-05-20T17:58:42Z) - ConvAI3: Generating Clarifying Questions for Open-Domain Dialogue
Systems (ClariQ) [64.60303062063663]
本論文では,対話システムに対する質問の明確化に関する課題について詳述する(ClariQ)。
このチャレンジは、2020年のSearch Oriented Conversational AI (SCAI) EMNLPワークショップで、ConvAI3(Conversational AI Challenge series)の一部として組織されている。
論文 参考訳(メタデータ) (2020-09-23T19:48:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。