論文の概要: The Failure of Plagiarism Detection in Competitive Programming
- arxiv url: http://arxiv.org/abs/2505.08244v1
- Date: Tue, 13 May 2025 05:43:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-14 20:57:54.436761
- Title: The Failure of Plagiarism Detection in Competitive Programming
- Title(参考訳): 競合プログラミングにおけるプラジャリズム検出の失敗
- Authors: Ethan Dickey,
- Abstract要約: プログラミングコースにおけるプラジャリズムは依然として永続的な課題である。
本稿では,従来のコードプラジャリズム検出手法が競合プログラミングの文脈で頻繁に失敗する理由について考察する。
広く使われている自動類似性チェッカーは、単純なコード変換や、新しいAI生成コードによって妨げられる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Plagiarism in programming courses remains a persistent challenge, especially in competitive programming contexts where assignments often have unique, known solutions. This paper examines why traditional code plagiarism detection methods frequently fail in these environments and explores the implications of emerging factors such as generative AI (genAI). Drawing on the author's experience teaching a Competitive Programming 1 (CP1) course over seven semesters at Purdue University (with $\approx 100$ students each term) and completely redesigning the CP1/2/3 course sequence, we provide an academically grounded analysis. We review literature on code plagiarism in computer science education, survey current detection tools (Moss, Kattis, etc.) and methods (manual review, code-authorship interviews), and analyze their strengths and limitations. Experience-based observations are presented to illustrate real-world detection failures and successes. We find that widely-used automated similarity checkers can be thwarted by simple code transformations or novel AI-generated code, while human-centric approaches like oral interviews, though effective, are labor-intensive. The paper concludes with opinions and preliminary recommendations for improving academic integrity in programming courses, advocating for a multi-faceted approach that combines improved detection algorithms, mastery-based learning techniques, and authentic assessment practices to better ensure code originality.
- Abstract(参考訳): プログラミングコースにおけるプラジャリズムは、特に代入がしばしばユニークな、既知のソリューションを持つ競合するプログラミングコンテキストにおいて、依然として永続的な課題である。
本稿では,これらの環境において従来のコードプラジャリズム検出手法が頻繁に失敗する理由を考察し,生成型AI(genAI)のような新たな要因がもたらす影響について考察する。
著者がPurdue Universityの7学期(各学期100ドル以上)でコンペティティブ・プログラミング1(CP1)コースを教えた経験をもとに,CP1/2/3コースのシーケンスを完全に再設計し,学術的な基礎解析を行った。
コンピュータサイエンス教育におけるコードプラジャリズムに関する文献をレビューし、現在の検出ツール(Moss, Kattisなど)とメソッド(手動レビュー、コードオーサシップインタビュー)を調査し、その強みと限界を分析する。
実世界検出の失敗と成功を説明するために、経験に基づく観察結果が提示される。
広く使われている自動類似性チェッカーは、単純なコード変換や新しいAI生成コードによって妨げられるが、口頭インタビューのような人間中心のアプローチは効果的だが、労働集約的である。
本論文は,プログラミングコースにおける学術的整合性向上のための意見と予備的勧告をまとめ,改良された検出アルゴリズム,熟達に基づく学習手法,およびコードの独創性向上のための真のアセスメントプラクティスを組み合わせた多面的アプローチを提唱する。
関連論文リスト
- An Empirical Study on Automatically Detecting AI-Generated Source Code: How Far Are We? [8.0988059417354]
本稿では,AI生成コード検出の性能向上のための様々な手法を提案する。
我々の最良のモデルは最先端のAI生成コード検出器(GPTSniffer)より優れており、F1スコアは82.55である。
論文 参考訳(メタデータ) (2024-11-06T22:48:18Z) - Investigating Reproducibility in Deep Learning-Based Software Fault
Prediction [16.25827159504845]
ますます複雑な機械学習モデルが急速に採用されるようになると、学者が文献で報告される結果を再現することがますます困難になる。
特に、適用されたディープラーニングモデルと評価方法論が適切に文書化されていない場合と、コードとデータが共有されていない場合である。
我々は,2019年から2022年にかけて,トップレベルのソフトウェアエンジニアリングカンファレンスにおいて,現在の文献を体系的にレビューし,56件の研究論文のレベルを検討した。
論文 参考訳(メタデータ) (2024-02-08T13:00:18Z) - A Comparative Study of Filters and Deep Learning Models to predict
Diabetic Retinopathy [0.0]
本研究では,インセプションNetV3を含む様々なディープラーニングモデルの結果を比較し,様々な画像フィルタを用いた。
本研究の目的は糖尿病関連失明の主な原因である糖尿病網膜症(DR)の診断過程を改善することである。
論文 参考訳(メタデータ) (2023-09-26T19:21:09Z) - CONCORD: Clone-aware Contrastive Learning for Source Code [64.51161487524436]
セルフ教師付き事前トレーニングは、多くのダウンストリームSEタスクに価値のあるジェネリックコード表現を学ぶための牽引役になった。
汎用的な表現学習のために、開発者が日々どのようにコードをコーディングするかは、要因としても不可欠である、と私たちは主張する。
特に,表現空間に良性クローンを近づける自己教師型コントラスト学習戦略であるCONCORDを提案する。
論文 参考訳(メタデータ) (2023-06-05T20:39:08Z) - A Gold Standard Dataset for the Reviewer Assignment Problem [117.59690218507565]
類似度スコア(Similarity score)とは、論文のレビューにおいて、レビュアーの専門知識を数値で見積もるものである。
私たちのデータセットは、58人の研究者による477の自己申告された専門知識スコアで構成されています。
2つの論文をレビュアーに関連付けるタスクは、簡単なケースでは12%~30%、ハードケースでは36%~43%である。
論文 参考訳(メタデータ) (2023-03-23T16:15:03Z) - Chatbots As Fluent Polyglots: Revisiting Breakthrough Code Snippets [0.0]
この研究は、AI駆動のコードアシスタントを使用して、現代技術を形成する影響力のあるコンピュータコードの選択を分析する。
この研究の最初の貢献は、過去50年で最も重要なコードの進歩の半分を調査することであった。
論文 参考訳(メタデータ) (2023-01-05T23:17:17Z) - Investigating Fairness Disparities in Peer Review: A Language Model
Enhanced Approach [77.61131357420201]
我々は、大規模言語モデル(LM)の助けを借りて、ピアレビューにおける公平性格差の徹底した厳密な研究を行う。
我々は、2017年から現在までのICLR(International Conference on Learning Representations)カンファレンスで、包括的なリレーショナルデータベースを収集、組み立て、維持しています。
我々は、著作者性別、地理、著作者、機関的名声など、興味のある複数の保護属性に対する公平性の違いを仮定し、研究する。
論文 参考訳(メタデータ) (2022-11-07T16:19:42Z) - Neural Language Models are Effective Plagiarists [38.85940137464184]
我々は, GPT-J を用いた学生が MOSS からの疑念を起こさずに,導入レベルのプログラミング課題を完遂できることを見出した。
GPT-Jは問題に関するトレーニングを受けておらず、その例は提供されていない。
我々は、GPT-Jで書かれたコードは構造的に多様であり、将来の盗作検出技術がアルゴリズムによって生成されたコードを特定するために使われる可能性があることを特に示していないと結論付けた。
論文 参考訳(メタデータ) (2022-01-19T04:00:46Z) - Software Vulnerability Detection via Deep Learning over Disaggregated
Code Graph Representation [57.92972327649165]
この研究は、コードコーパスから安全でないパターンを自動的に学習するためのディープラーニングアプローチを探求する。
コードには解析を伴うグラフ構造が自然に認められるため,プログラムの意味的文脈と構造的規則性の両方を利用する新しいグラフニューラルネットワーク(GNN)を開発する。
論文 参考訳(メタデータ) (2021-09-07T21:24:36Z) - ProtoTransformer: A Meta-Learning Approach to Providing Student Feedback [54.142719510638614]
本稿では,フィードバックを数発の分類として提供するという課題について考察する。
メタラーナーは、インストラクターによるいくつかの例から、新しいプログラミング質問に関する学生のコードにフィードバックを与えるように適応します。
本手法は,第1段階の大学が提供したプログラムコースにおいて,16,000名の学生試験ソリューションに対するフィードバックの提供に成功している。
論文 参考訳(メタデータ) (2021-07-23T22:41:28Z) - A Transformer-based Approach for Source Code Summarization [86.08359401867577]
コードトークン間のペア関係をモデル化することにより,要約のためのコード表現を学習する。
アプローチは単純であるにもかかわらず、最先端技術よりもかなりの差があることが示される。
論文 参考訳(メタデータ) (2020-05-01T23:29:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。