論文の概要: Characterizing Information Shared by Participants to Coding Challenges: The Case of Advent of Code
- arxiv url: http://arxiv.org/abs/2412.02290v1
- Date: Tue, 03 Dec 2024 09:07:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-04 15:47:21.338712
- Title: Characterizing Information Shared by Participants to Coding Challenges: The Case of Advent of Code
- Title(参考訳): 参加者が共有する情報の特徴とコーディング課題--コードの進化を事例として
- Authors: Francesco Cauteruccio, Enrico Corradini, Luca Virgili,
- Abstract要約: Advent of Code (AoC)は、さまざまなスキルセットとレベルのプログラミングパズルを解く必要がある一般的なコーディングチャレンジである。
ユーザ参加、チャレンジ中の新しいプログラミング言語の採用、および2つのプログラム言語間のレジリエンスについて、Stack Overflowの調査に基づいて検討する。
- 参考スコア(独自算出の注目度): 3.491739278976015
- License:
- Abstract: Advent of Code (AoC from now on) is a popular coding challenge requiring to solve programming puzzles for a variety of skill sets and levels. AoC follows the advent calendar, therefore it is an annual challenge that lasts for 25 days. AoC participants usually post their solutions on social networks and discuss them online. These challenges are interesting to study since they could highlight the adoption of new tools, the evolution of the developer community, or the technological requirements of well-known companies. For these reasons, we first create a dataset of the 2019-2021 AoC editions containing the discussion threads made on the subreddit {\tt /r/adventofcode}. Then, we propose a model based on stream graphs to best study this context, where we represent its most important actors through time: participants, comments, and programming languages. Thanks to our model, we investigate user participation, adoption of new programming languages during a challenge and between two of them, and resiliency of programming languages based on a Stack Overflow survey. We find that the top-used programming languages are almost the same in the three years, pointing out their importance. Moreover, participants tend to keep the same programming language for the whole challenge, while the ones attending two AoCs usually change it in the next one. Finally, we observe interesting results about the programming languages that are ``Popular'' or ``Loved'' according to the Stack Overflow survey. Firstly, these are the ones adopted for the longest time in an AoC edition, thanks to which users have a high chance of reaching the end of the challenge. Secondly, they are the most chosen when a participant decides to change programming language during the same challenge.
- Abstract(参考訳): Advent of Code(これからのAoC)は、さまざまなスキルセットとレベルのプログラミングパズルを解決する必要がある一般的なコーディングチャレンジである。
AoCは出現暦に従うため、年間25日間のチャレンジである。
AoC参加者は通常、ソリューションをソーシャルネットワークに投稿し、オンラインで議論する。
これらの課題は、新しいツールの採用、開発者コミュニティの進化、あるいはよく知られた企業の技術的要件を強調することができるため、研究が興味深い。
これらの理由から、我々はまず、subreddit {\tt /r/adventofcode}で作成された議論スレッドを含む2019-2021 AoCエディションのデータセットを作成します。
そして、この文脈を最もよく研究するために、ストリームグラフに基づくモデルを提案し、そこでは、参加者、コメント、プログラミング言語など、時間を通して最も重要なアクターを表現します。
当社のモデルにより、ユーザ参加、チャレンジ中の新しいプログラミング言語の採用、および2つのプログラム言語間のレジリエンスについて、Stack Overflowの調査に基づいて検討する。
最上位のプログラミング言語は3年間でほぼ同じであり、その重要性を指摘している。
さらに、参加者はチャレンジ全体に対して同じプログラミング言語を保持する傾向がありますが、AoCの2つの参加者は通常、次のプログラムで変更します。
最後に、Stack Overflowの調査によると、'`Popular''または'`Loved''のプログラミング言語に関する興味深い結果を観察します。
第一に、これらはAoCエディションで最も長く採用されているもので、ユーザーがチャレンジの終わりに到達する確率が高いためです。
第二に、参加者が同じチャレンジでプログラミング言語を変更すると決めたときに最も選択される。
関連論文リスト
- Probeable Problems for Beginner-level Programming-with-AI Contests [0.0]
我々は,複数の機関の学部生を対象に,2時間のプログラミングコンテストを実施している。
学生は個人またはグループで働けるようになり、AIツールを自由に使えるようになった。
これらのグループによって提出されたコードが、欠落した詳細を特定できる範囲を分析し、形式的および非公式なCS教育文脈における学習を支援する方法を特定する。
論文 参考訳(メタデータ) (2024-05-24T00:39:32Z) - A Survey of Neural Code Intelligence: Paradigms, Advances and Beyond [84.95530356322621]
この調査は、コードインテリジェンスの発展に関する体系的なレビューを示す。
50以上の代表モデルとその変種、20以上のタスクのカテゴリ、および680以上の関連する広範な研究をカバーしている。
発達軌道の考察に基づいて、コードインテリジェンスとより広範なマシンインテリジェンスとの間の新たな相乗効果について検討する。
論文 参考訳(メタデータ) (2024-03-21T08:54:56Z) - Which is a better programming assistant? A comparative study between
chatgpt and stack overflow [10.861651344753591]
プログラマの生産性を向上させるために,Stack OverflowとChatGPTのパフォーマンスを比較した。
コード品質に関しては、ChatGPTがStack Overflowをはるかに上回り、アルゴリズムやライブラリ関連のタスクの完全化を支援している。
プログラミング支援における2つのプラットフォーム間の相違したパフォーマンスの背景にある理由を明らかにする。
論文 参考訳(メタデータ) (2023-08-26T11:25:18Z) - Holy Grail 2.0: From Natural Language to Constraint Models [9.389618538863392]
E・フリューダーは「制約プログラミングは、コンピュータ科学がまだプログラミングの聖杯に最も近いアプローチの1つである」と強調した。
我々は、NL4OPT(Natural Language Processing for Optimization)の課題からインスピレーションを得て、GPTモデルに対する分解ベースのプロンプトアプローチによる早期結果を示す。
論文 参考訳(メタデータ) (2023-08-03T07:48:02Z) - IGLU 2022: Interactive Grounded Language Understanding in a
Collaborative Environment at NeurIPS 2022 [63.07251290802841]
協調環境における対話型接地言語理解(IGLU: Interactive Grounded Language Understanding)を提案する。
競争の第一の目的は、対話型エンボディエージェントの開発方法の問題にアプローチすることである。
この研究課題は、NeurIPSコミュニティと非常に関係のある2つの研究分野に自然に関連があるが、限定的ではない。
論文 参考訳(メタデータ) (2022-05-27T06:12:48Z) - MCoNaLa: A Benchmark for Code Generation from Multiple Natural Languages [76.93265104421559]
英語以外の自然言語コマンドからコード生成をベンチマークします。
スペイン語,日本語,ロシア語の3言語で896個のNLコードペアを注釈した。
難易度はこれらの3つの言語によって異なるが、全てのシステムは英語にかなり遅れている。
論文 参考訳(メタデータ) (2022-03-16T04:21:50Z) - Competition-Level Code Generation with AlphaCode [74.87216298566942]
より深い推論を必要とする問題に対する新しいソリューションを作成することができるコード生成システムであるAlphaCodeを紹介する。
Codeforcesプラットフォームにおける最近のプログラミングコンペティションのシミュレーション評価において、AlphaCodeは平均54.3%のランキングを達成した。
論文 参考訳(メタデータ) (2022-02-08T23:16:31Z) - Measuring Coding Challenge Competence With APPS [54.22600767666257]
コード生成のベンチマークであるAPPSを紹介する。
私たちのベンチマークには1万の問題が含まれています。
GPT-Neoのような最近のモデルでは、導入問題のテストケースの約15%をパスできる。
論文 参考訳(メタデータ) (2021-05-20T17:58:42Z) - ConvAI3: Generating Clarifying Questions for Open-Domain Dialogue
Systems (ClariQ) [64.60303062063663]
本論文では,対話システムに対する質問の明確化に関する課題について詳述する(ClariQ)。
このチャレンジは、2020年のSearch Oriented Conversational AI (SCAI) EMNLPワークショップで、ConvAI3(Conversational AI Challenge series)の一部として組織されている。
論文 参考訳(メタデータ) (2020-09-23T19:48:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。