論文の概要: Does Editing Improve Answer Quality on Stack Overflow? A Data-Driven Investigation
- arxiv url: http://arxiv.org/abs/2507.21329v1
- Date: Mon, 28 Jul 2025 20:51:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-30 17:08:55.271178
- Title: Does Editing Improve Answer Quality on Stack Overflow? A Data-Driven Investigation
- Title(参考訳): 編集はスタックオーバーフローの回答品質を改善するか? データ駆動調査
- Authors: Saikat Mondal, Chanchal K. Roy,
- Abstract要約: Stack Overflowのような技術Q&Aプラットフォームの低品質な回答には、非効率性、バグ、セキュリティ脆弱性が導入されている。
コンテンツ品質を改善するために、SOは共同編集を可能にする。
我々は,少なくとも1つの編集を受理したPython関連の94,994の回答を分析し,編集がセマンティック関連性,コード使用性,(3)コードの複雑さ,(4)セキュリティ脆弱性,(5)コードの最適化,(6)可読性を改善するかどうかを判定する。
- 参考スコア(独自算出の注目度): 5.176434782905268
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: High-quality answers in technical Q&A platforms like Stack Overflow (SO) are crucial as they directly influence software development practices. Poor-quality answers can introduce inefficiencies, bugs, and security vulnerabilities, and thus increase maintenance costs and technical debt in production software. To improve content quality, SO allows collaborative editing, where users revise answers to enhance clarity, correctness, and formatting. Several studies have examined rejected edits and identified the causes of rejection. However, prior research has not systematically assessed whether accepted edits enhance key quality dimensions. While one study investigated the impact of edits on C/C++ vulnerabilities, broader quality aspects remain unexplored. In this study, we analyze 94,994 Python-related answers that have at least one accepted edit to determine whether edits improve (1) semantic relevance, (2) code usability, (3) code complexity, (4) security vulnerabilities, (5) code optimization, and (6) readability. Our findings show both positive and negative effects of edits. While 53.3% of edits improve how well answers match questions, 38.1% make them less relevant. Some previously broken code (9%) becomes executable, yet working code (14.7%) turns non-parsable after edits. Many edits increase complexity (32.3%), making code harder to maintain. Instead of fixing security issues, 20.5% of edits introduce additional issues. Even though 51.0% of edits optimize performance, execution time still increases overall. Readability also suffers, as 49.7% of edits make code harder to read. This study highlights the inconsistencies in editing outcomes and provides insights into how edits impact software maintainability, security, and efficiency that might caution users and moderators and help future improvements in collaborative editing systems.
- Abstract(参考訳): Stack Overflow(SO)のような技術Q&Aプラットフォームの高品質な回答は、ソフトウェア開発プラクティスに直接影響を与えるため、非常に重要です。
品質の低い回答は、非効率性、バグ、セキュリティ上の脆弱性を導入し、プロダクションソフトウェアにおけるメンテナンスコストと技術的負債を増大させます。
コンテンツ品質を改善するために、SOは共同編集を可能にする。
いくつかの研究は、拒絶された編集を調査し、拒絶の原因を特定している。
しかし、先行研究は、受け入れられた編集が鍵品質の次元を高めるかどうかを体系的に評価していない。
ある調査では、編集がC/C++の脆弱性に与える影響を調査したが、より広範な品質面は未調査のままである。
本研究では,(1) 意味的関連性,(2) コードの使いやすさ,(3) コードの複雑さ,(4) セキュリティ脆弱性,(5) コードの最適化,(6) 可読性について,少なくとも1つの編集が受け入れられているPython関連回答94,994 を分析した。
以上より,編集の肯定的効果と否定的効果が認められた。
53.3%の編集では回答が質問に合うように改善されているが、38.1%では関連性が低い。
以前に壊れたコード (9%) は実行可能になったが、動作するコード (14.7%) は編集後にパース不可能になった。
多くの編集が複雑さを増し(32.3%)、コードのメンテナンスが困難になる。
セキュリティ問題を修正する代わりに、20.5%の編集が追加の問題を提起している。
編集の51.0%はパフォーマンスを最適化するが、実行時間は全体的に増加している。
可読性も損なわれ、49.7%の編集でコードが読みにくくなっている。
この研究は、編集結果の不整合を強調し、編集がソフトウェアの保守性、セキュリティ、効率にどのように影響するかについての洞察を提供する。
関連論文リスト
- EditLord: Learning Code Transformation Rules for Code Editing [26.41680850940224]
コード変換のステップを明確にするコード編集フレームワークであるEditLordを紹介します。
我々の重要な洞察は、訓練コードペアからコード編集ルールを抽出するために、帰納的学習者として言語モデル(LM)を使用することである。
このようなルールセットはトレーニングサンプル毎に表示され、微調整やプロンプトや反復的なコード編集の補助を行う。
論文 参考訳(メタデータ) (2025-03-10T16:33:59Z) - Understanding the Limits of Lifelong Knowledge Editing in LLMs [59.12302872055081]
我々は、生涯にわたる知識編集の研究を現実の編集に事実上の規模で橋渡しする。
まず,実世界のウィキデータ編集の大規模ベンチマークであるWikiBigEditを紹介した。
最初の例では、知識編集のための500万以上の質問応答ペアが含まれている。
論文 参考訳(メタデータ) (2025-03-07T18:45:42Z) - K-Edit: Language Model Editing with Contextual Knowledge Awareness [71.73747181407323]
知識に基づくモデル編集は、大きな言語モデルの重みを正確に修正することを可能にする。
我々は、文脈的に一貫した知識編集を生成するための効果的なアプローチであるK-Editを提案する。
論文 参考訳(メタデータ) (2025-02-15T01:35:13Z) - Understanding Code Understandability Improvements in Code Reviews [79.16476505761582]
GitHub上のJavaオープンソースプロジェクトからの2,401のコードレビューコメントを分析した。
改善提案の83.9%が承認され、統合され、1%未満が後に復活した。
論文 参考訳(メタデータ) (2024-10-29T12:21:23Z) - CoEdPilot: Recommending Code Edits with Learned Prior Edit Relevance, Project-wise Awareness, and Interactive Nature [15.209899925736751]
我々は、関連する編集を識別してコード編集を推奨するLLM駆動のソリューションであるCoEdPilotを提案する。
CoEdPilotは、複数のニューラルトランスフォーマーをオーケストレーションして、ロケーションの編集とコンテントの編集の両方に関して、プロジェクトの中で何とどのように編集するかを特定する。
実験の結果、CoEdPilotは編集位置を70.8%-85.3%の精度で予測でき、正確なマッチングレートは41.8%、BLEU4スコアは60.7である。
論文 参考訳(メタデータ) (2024-08-03T10:23:05Z) - An Empirical Study on Code Review Activity Prediction and Its Impact in Practice [7.189276599254809]
本稿では,提案パッチのどのファイルにコメントが必要か,(2)修正,(3)ホットスポットかを予測することで,コードレビュアを支援することを目的とする。
3つのオープンソースと2つの産業データセットに関する実証的研究は、コード埋め込みとレビュープロセスの機能を組み合わせることで、最先端のアプローチよりも優れた結果をもたらすことを示しています。
論文 参考訳(メタデータ) (2024-04-16T16:20:02Z) - Responsible Visual Editing [53.45295657891099]
画像内の特定の概念を修正し、変更を最小化しながら、より責任を負うようにする。
有害な画像が研究に与える影響を緩和するため、人間の代わりにテディベアを用いて有害な情報を表現した透明でパブリックなデータセットAltBearを作成しました。
AltBearデータセットは、実画像に見られる有害な内容とよく一致し、一貫した実験的な評価を提供する。
論文 参考訳(メタデータ) (2024-04-08T14:56:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。