論文の概要: ChatGPT vs. DeepSeek: A Comparative Study on AI-Based Code Generation
- arxiv url: http://arxiv.org/abs/2502.18467v1
- Date: Thu, 30 Jan 2025 16:14:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-02 04:52:28.840379
- Title: ChatGPT vs. DeepSeek: A Comparative Study on AI-Based Code Generation
- Title(参考訳): ChatGPT vs. DeepSeek: AIベースのコード生成の比較研究
- Authors: Md Motaleb Hossen Manik,
- Abstract要約: 本研究は,オンラインジャッジコーディング課題を用いたPythonコード生成におけるChatGPTとDeepSeekを比較した。
正確性(オンライン判断、最大3回の試み)、コード品質(Pylint/Flake8)、効率性(実行時間/メモリ使用率)を評価する。
DeepSeekは、特にアルゴリズム的なタスクにおいて、最初の試みで「受け入れ」されることが多い高い正確性を示した。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Background: AI-powered code generation, fueled by Large Language Models (LLMs), is revolutionizing software development. Models like OpenAI's Codex and GPT-4, alongside DeepSeek, leverage vast code and natural language datasets. However, ensuring code quality, correctness, and managing complex tasks remains challenging, necessitating thorough evaluation. Methodology: This research compares ChatGPT (version o1) and DeepSeek (version R1) for Python code generation using online judge coding challenges. It evaluates correctness (online judge verdicts, up to three attempts), code quality (Pylint/Flake8), and efficiency (execution time/memory usage). Results: DeepSeek demonstrated higher correctness, particularly on algorithmic tasks, often achieving 'Accepted' on the first attempt. ChatGPT sometimes requires multiple attempts or failures. ChatGPT encountered fewer issues, used comparable or slightly less memory, consumed less execution times and wrote fewer lines of code. Conclusion: DeepSeek exhibited superior correctness in Python code generation, often requiring fewer attempts, suggesting an advantage in algorithmic problem-solving. Both models showed almost similar efficiency in execution time and memory use. Finally, this research provides insights for developers choosing AI coding assistants and informs future AI-driven software development research.
- Abstract(参考訳): 背景: 大規模言語モデル(LLM)によって推進されたAIによるコード生成は、ソフトウェア開発に革命をもたらしている。
OpenAIのCodexやGPT-4といったモデルとDeepSeekは、膨大なコードと自然言語データセットを活用する。
しかし、コード品質、正確性、複雑なタスクの管理は依然として困難であり、徹底的な評価が必要である。
方法論: この研究は,オンラインジャッジコーディング課題を用いたPythonコード生成において,ChatGPT(バージョンo1)とDeepSeek(バージョンR1)を比較した。
正確性(オンライン判断、最大3回の試み)、コード品質(Pylint/Flake8)、効率性(実行時間/メモリ使用率)を評価する。
結果: DeepSeekは、特にアルゴリズム的なタスクにおいて、最初の試みで"受け入れ"されることが多い、高い正確性を示しました。
ChatGPTは、時には複数の試行や失敗を必要とする。
ChatGPTは、同等またはわずかに少ないメモリを使用し、実行時間を減らし、コード行数を減らした。
結論: DeepSeekはPythonコード生成において優れた正当性を示し、しばしば試行を少なくし、アルゴリズムによる問題解決の利点を示唆した。
どちらのモデルも実行時間とメモリ使用においてほぼ同様の効率性を示した。
最後に、この研究はAIコーディングアシスタントを選択する開発者に洞察を与え、将来のAI駆動ソフトウェア開発研究を知らせる。
関連論文リスト
- Can OpenSource beat ChatGPT? -- A Comparative Study of Large Language Models for Text-to-Code Generation [0.24578723416255752]
テキスト・ツー・コード生成の能力について,5つの大言語モデル (LLM) を評価した。
ChatGPTはこれらの典型的なプログラミング課題を、Code Llamaのようなコード特化モデルよりもはるかに効果的に処理することができる。
論文 参考訳(メタデータ) (2024-09-06T10:03:49Z) - Evaluating AI-generated code for C++, Fortran, Go, Java, Julia, Matlab, Python, R, and Rust [0.1906498126334485]
本研究では,ChatGPTバージョン3.5および4の多種多様なプログラミング言語におけるコード生成能力を評価する。
我々はChatGPTに、単純な数値積分、共役勾配解法、並列1次元ステンシルに基づく熱方程式解法という3つの異なる符号を生成するよう依頼した。
分析の焦点は、コードのコンパイル、実行時のパフォーマンス、正確性でした。
論文 参考訳(メタデータ) (2024-05-21T17:04:37Z) - AI Coders Are Among Us: Rethinking Programming Language Grammar Towards Efficient Code Generation [14.831115535710692]
本稿では,AI指向文法の概念を提案する。
これは、AIモデルの動作メカニズムにより良い方法でコードを表現することを目的としています。
AI指向文法で書かれたコードはフォーマットを捨て、最小限のトークンを使用する。
論文 参考訳(メタデータ) (2024-04-25T04:46:02Z) - Unmasking the giant: A comprehensive evaluation of ChatGPT's proficiency in coding algorithms and data structures [0.6990493129893112]
本稿では,ChatGPTが入力した問題に対する正しい解を生成する能力,コード品質,コードによってスローされる実行時エラーの性質を評価する。
この種の状況において、ChatGPTコードがいかに間違っているか、いくつかの洞察を得るために、パスされたテストケースのパターンを調べます。
論文 参考訳(メタデータ) (2023-07-10T08:20:34Z) - CONCORD: Clone-aware Contrastive Learning for Source Code [64.51161487524436]
セルフ教師付き事前トレーニングは、多くのダウンストリームSEタスクに価値のあるジェネリックコード表現を学ぶための牽引役になった。
汎用的な表現学習のために、開発者が日々どのようにコードをコーディングするかは、要因としても不可欠である、と私たちは主張する。
特に,表現空間に良性クローンを近づける自己教師型コントラスト学習戦略であるCONCORDを提案する。
論文 参考訳(メタデータ) (2023-06-05T20:39:08Z) - Revisiting Code Search in a Two-Stage Paradigm [67.02322603435628]
TOSSは2段階のフュージョンコード検索フレームワークである。
まずIRベースのバイエンコーダモデルを使用して、少数のトップkコード候補を効率的にリコールする。
その後、より微細なクロスエンコーダを使用してランク付けを行う。
論文 参考訳(メタデータ) (2022-08-24T02:34:27Z) - Fault-Aware Neural Code Rankers [64.41888054066861]
サンプルプログラムの正しさを予測できる故障認識型ニューラルネットワークローダを提案する。
我々のフォールト・アウェア・ローダは、様々なコード生成モデルのpass@1精度を大幅に向上させることができる。
論文 参考訳(メタデータ) (2022-06-04T22:01:05Z) - Measuring Coding Challenge Competence With APPS [54.22600767666257]
コード生成のベンチマークであるAPPSを紹介する。
私たちのベンチマークには1万の問題が含まれています。
GPT-Neoのような最近のモデルでは、導入問題のテストケースの約15%をパスできる。
論文 参考訳(メタデータ) (2021-05-20T17:58:42Z) - Towards Optimally Efficient Tree Search with Deep Learning [76.64632985696237]
本稿では,線形モデルから信号整数を推定する古典整数最小二乗問題について検討する。
問題はNPハードであり、信号処理、バイオインフォマティクス、通信、機械学習といった様々な応用でしばしば発生する。
本稿では, 深いニューラルネットワークを用いて, 単純化されたメモリバウンドA*アルゴリズムの最適推定を推定し, HATSアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-01-07T08:00:02Z) - COSEA: Convolutional Code Search with Layer-wise Attention [90.35777733464354]
我々は、畳み込みニューラルネットワークを階層的注意で活用し、コード固有の構造論理をキャプチャする新しいディープラーニングアーキテクチャ、COSEAを提案する。
COSEAは、コード検索タスクの最先端メソッドよりも大幅に改善できる。
論文 参考訳(メタデータ) (2020-10-19T13:53:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。