論文の概要: Who Answers It Better? An In-Depth Analysis of ChatGPT and Stack
Overflow Answers to Software Engineering Questions
- arxiv url: http://arxiv.org/abs/2308.02312v3
- Date: Thu, 10 Aug 2023 16:21:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-11 15:15:49.950372
- Title: Who Answers It Better? An In-Depth Analysis of ChatGPT and Stack
Overflow Answers to Software Engineering Questions
- Title(参考訳): 誰の回答がよいのか?
ソフトウェア工学の質問に対するChatGPTとStack Overflowの回答の深さ分析
- Authors: Samia Kabir, David N. Udo-Imeh, Bonan Kou, Tianyi Zhang
- Abstract要約: We performed a comprehensive analysis of ChatGPT's response to 517 Question from Stack Overflow (SO)。
これらの反応の正しさ,一貫性,包括性,簡潔さを評価した。
調査の結果,ChatGPTの回答の52%が不正確であり,77%が冗長であることがわかった。
- 参考スコア(独自算出の注目度): 5.460468044619896
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Over the last decade, Q&A platforms have played a crucial role in how
programmers seek help online. The emergence of ChatGPT, however, is causing a
shift in this pattern. Despite ChatGPT's popularity, there hasn't been a
thorough investigation into the quality and usability of its responses to
software engineering queries. To address this gap, we undertook a comprehensive
analysis of ChatGPT's replies to 517 questions from Stack Overflow (SO). We
assessed the correctness, consistency, comprehensiveness, and conciseness of
these responses. Additionally, we conducted an extensive linguistic analysis
and a user study to gain insights into the linguistic and human aspects of
ChatGPT's answers. Our examination revealed that 52% of ChatGPT's answers
contain inaccuracies and 77% are verbose. Nevertheless, users still prefer
ChatGPT's responses 39.34% of the time due to their comprehensiveness and
articulate language style. These findings underscore the need for meticulous
error correction in ChatGPT while also raising awareness among users about the
potential risks associated with seemingly accurate answers.
- Abstract(参考訳): 過去10年間、Q&Aプラットフォームは、プログラマがオンラインの助けを求める上で重要な役割を担ってきた。
しかし、ChatGPTの出現は、このパターンの変化を引き起こしている。
ChatGPTの人気にもかかわらず、ソフトウェアエンジニアリングクエリに対する応答の品質とユーザビリティに関する詳細な調査は行われていない。
このギャップに対処するため、stack overflow(so)から517の質問に対するchatgptの回答を総合的に分析しました。
我々は,これらの回答の正確性,一貫性,包括性,簡潔性を評価した。
さらに,chatgptの回答の言語的・人間的側面に関する洞察を得るために,広範な言語分析とユーザ調査を行った。
調査の結果,ChatGPTの回答の52%が不正確であり,77%が冗長であることがわかった。
それでもユーザは、その包括性と明瞭な言語スタイルのために、依然としてchatgptの回答を39.34%好んでいる。
これらの発見は、chatgptにおける細心の注意深い誤り訂正の必要性を裏付けると同時に、一見正確な回答に関連する潜在的なリスクに対するユーザの意識を高めるものだ。
関連論文リスト
- An exploratory analysis of Community-based Question-Answering Platforms and GPT-3-driven Generative AI: Is it the end of online community-based learning? [0.6749750044497732]
ChatGPTは、Stack Overflowのようなコミュニティの質問に答えるプラットフォームに対して、ソフトウェアエンジニアにインタラクティブな代替手段を提供する。
私たちは、2022年1月から2022年12月までに質問されたStackOverflowから、2564のPythonとJavaScriptの質問を分析しました。
分析の結果,ChatGPTの回答は66%短く,質問に対して35%の回答が得られた。
論文 参考訳(メタデータ) (2024-09-26T02:17:30Z) - A Study on the Vulnerability of Test Questions against ChatGPT-based
Cheating [14.113742357609285]
ChatGPTはテキストのプロンプトを正確に答えることができる。
多くの教育者は、彼らの持ち帰りテストや遠隔テストや試験がChatGPTベースの不正行為に弱いことを発見している。
論文 参考訳(メタデータ) (2024-02-21T23:51:06Z) - Exploring ChatGPT's Capabilities on Vulnerability Management [56.4403395100589]
我々は、70,346のサンプルを含む大規模なデータセットを用いて、完全な脆弱性管理プロセスを含む6つのタスクでChatGPTの機能を探求する。
注目すべき例として、ChatGPTのソフトウェアバグレポートのタイトル生成などのタスクにおける熟練度がある。
以上の結果から,ChatGPTが抱える障害が明らかとなり,将来的な方向性に光を当てた。
論文 参考訳(メタデータ) (2023-11-11T11:01:13Z) - Primacy Effect of ChatGPT [69.49920102917598]
本稿では,ChatGPTの優位性について検討する。
実験と分析により、より信頼性の高いChatGPTベースのソリューションを構築する上で、さらなる洞察が得られればと思っています。
論文 参考訳(メタデータ) (2023-10-20T00:37:28Z) - An empirical study of ChatGPT-3.5 on question answering and code
maintenance [14.028497274245227]
ChatGPTがプログラマを置き換え、ジョブを廃止するかどうかという懸念が高まっている。
そこで我々は,ChatGPTとプログラマの質問応答とソフトウェア保守を系統的に比較するための実証的研究を行った。
論文 参考訳(メタデータ) (2023-10-03T14:48:32Z) - Are We Ready to Embrace Generative AI for Software Q&A? [25.749110480727765]
世界最大のソフトウェアQ&A(SQA)WebサイトであるStack Overflowは、生成AI技術の出現により、トラフィックの大幅な減少に直面している。
ChatGPTは、Stack Overflowのリリースからわずか6日後に禁止される。
これを検証するために、我々は人書きとChatGPT生成の回答の比較評価を行った。
論文 参考訳(メタデータ) (2023-07-19T05:54:43Z) - Evaluating Privacy Questions From Stack Overflow: Can ChatGPT Compete? [1.231476564107544]
ChatGPTはコードの生成や開発者の質問に対する応答の代替手段として使用されている。
以上の結果から,プライバシ関連の質問の多くは,選択/同意,集約,識別に関連があることが示唆された。
論文 参考訳(メタデータ) (2023-06-19T21:33:04Z) - ChatLog: Carefully Evaluating the Evolution of ChatGPT Across Time [54.18651663847874]
ChatGPTは大きな成功をおさめ、インフラ的な地位を得たと考えられる。
既存のベンチマークでは,(1)周期的評価の無視,(2)きめ細かい特徴の欠如という2つの課題に直面する。
2023年3月から現在まで,21のNLPベンチマークに対して,さまざまな長文ChatGPT応答を大規模に記録した常時更新データセットであるChatLogを構築している。
論文 参考訳(メタデータ) (2023-04-27T11:33:48Z) - ChatGPT is a Knowledgeable but Inexperienced Solver: An Investigation of Commonsense Problem in Large Language Models [49.52083248451775]
大規模言語モデル(LLM)はNLPに大きな進歩をもたらした。
特にChatGPTは,広く利用されており,アクセスしやすいLLMである。
我々は、ChatGPTの常識能力を評価するために、11のデータセットで一連の実験を行った。
論文 参考訳(メタデータ) (2023-03-29T03:05:43Z) - Is ChatGPT a General-Purpose Natural Language Processing Task Solver? [113.22611481694825]
大規模言語モデル(LLM)は、さまざまな自然言語処理(NLP)タスクをゼロショットで実行できることを実証している。
近年、ChatGPTのデビューは自然言語処理(NLP)コミュニティから大きな注目を集めている。
ChatGPTが多くのNLPタスクをゼロショットで実行できるジェネラリストモデルとして機能するかどうかはまだ分かっていない。
論文 参考訳(メタデータ) (2023-02-08T09:44:51Z) - A Categorical Archive of ChatGPT Failures [47.64219291655723]
OpenAIが開発したChatGPTは、大量のデータを使って訓練され、人間の会話をシミュレートしている。
それは、広範囲の人間の問い合わせに効果的に答える能力のために、大きな注目を集めている。
しかし、ChatGPTの失敗の包括的分析は欠落しており、これが本研究の焦点となっている。
論文 参考訳(メタデータ) (2023-02-06T04:21:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。