論文の概要: Can We Identify Stack Overflow Questions Requiring Code Snippets?
Investigating the Cause & Effect of Missing Code Snippets
- arxiv url: http://arxiv.org/abs/2402.04575v1
- Date: Wed, 7 Feb 2024 04:25:31 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-08 16:55:49.887290
- Title: Can We Identify Stack Overflow Questions Requiring Code Snippets?
Investigating the Cause & Effect of Missing Code Snippets
- Title(参考訳): コードスニペットを必要とするstack overflowの質問を特定できますか?
コードスニペットの欠落原因と影響の調査
- Authors: Saikat Mondal, Mohammad Masudur Rahman, Chanchal K. Roy
- Abstract要約: Stack Overflow(SO)のQ&Aサイトでは、コード関連の問題に対するソリューションをリクエストすることが多い。
彼らはしばしば、質問の提出時に必要なコードスニペットを見逃す。
本研究では,SO質問におけるコードスニペットの欠落の原因と影響について検討する。
- 参考スコア(独自算出の注目度): 8.107650447105998
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: On the Stack Overflow (SO) Q&A site, users often request solutions to their
code-related problems (e.g., errors, unexpected behavior). Unfortunately, they
often miss required code snippets during their question submission, which could
prevent their questions from getting prompt and appropriate answers. In this
study, we conduct an empirical study investigating the cause & effect of
missing code snippets in SO questions whenever required. Here, our
contributions are threefold. First, we analyze how the presence or absence of
required code snippets affects the correlation between question types (missed
code, included code after requests & had code snippets during submission) and
corresponding answer meta-data (e.g., presence of an accepted answer).
According to our analysis, the chance of getting accepted answers is three
times higher for questions that include required code snippets during their
question submission than those that missed the code. We also investigate
whether the confounding factors (e.g., user reputation) affect questions
receiving answers besides the presence or absence of required code snippets. We
found that such factors do not hurt the correlation between the presence or
absence of required code snippets and answer meta-data. Second, we surveyed 64
practitioners to understand why users miss necessary code snippets. About 60%
of them agree that users are unaware of whether their questions require any
code snippets. Third, we thus extract four text-based features (e.g., keywords)
and build six ML models to identify the questions that need code snippets. Our
models can predict the target questions with 86.5% precision, 90.8% recall,
85.3% F1-score, and 85.2% overall accuracy. Our work has the potential to save
significant time in programming question-answering and improve the quality of
the valuable knowledge base by decreasing unanswered and unresolved questions.
- Abstract(参考訳): Stack Overflow(SO)のQ&Aサイトでは、コードに関連する問題(エラー、予期せぬ振る舞いなど)に対するソリューションをリクエストすることが多い。
残念ながら、質問の提出中に必要なコードスニペットを見逃すことが多いため、質問が迅速かつ適切な回答を得るのを防げる可能性がある。
本研究では,必要な質問に対して,コードスニペットの欠落の原因と効果を実験的に検討する。
ここで、私たちの貢献は3倍です。
まず、要求されたコードスニペットの有無が、質問タイプ(ミスコード、リクエスト後のコード、提出中のコードスニペット)と対応するメタデータ(例えば、受け入れられた回答の存在)の相関にどのように影響するかを分析します。
私たちの分析によると、質問の提出中に必要なコードスニペットを含む質問に対して、受け入れられた回答を得る確率は、コードを見逃した質問よりも3倍高い。
また,要求されるコードスニペットの有無以外に,回答を受け取る質問に影響する要因(例えばユーザ評価)について検討する。
このような要因が,必要なコードスニペットの有無とメタデータの回答の相関性に影響を与えないことが分かりました。
次に、必要なコードスニペットを見逃す理由を理解するために、64人の実践者を調査しました。
約60%は、ユーザーが自分の質問がコードスニペットを必要とするかどうか知らないことに同意している。
第三に、テキストベースの4つの特徴(キーワードなど)を抽出し、6つのMLモデルを構築し、コードスニペットを必要とする問題を特定する。
我々のモデルは86.5%の精度、90.8%のリコール、85.3%のf1-score、85.2%の精度でターゲットの質問を予測できる。
私たちの仕事は、プログラミングの質問応答においてかなりの時間を節約し、未解決の質問を減らすことによって、価値のある知識ベースの品質を向上させる可能性を秘めています。
関連論文リスト
- Understanding Code Understandability Improvements in Code Reviews [79.16476505761582]
GitHub上のJavaオープンソースプロジェクトからの2,401のコードレビューコメントを分析した。
改善提案の83.9%が承認され、統合され、1%未満が後に復活した。
論文 参考訳(メタデータ) (2024-10-29T12:21:23Z) - I Could've Asked That: Reformulating Unanswerable Questions [89.93173151422636]
我々は、解決不可能な質問を改定するためのオープンソースおよびプロプライエタリなモデルを評価する。
GPT-4とLlama2-7Bは、それぞれ26%と12%しか質問を修正できなかった。
ベンチマークとコードを公開して実験を再現します。
論文 参考訳(メタデータ) (2024-07-24T17:59:07Z) - Reproducibility of Issues Reported in Stack Overflow Questions: Challenges, Impact & Estimation [2.2160604288512324]
ソフトウェア開発者は、コードレベルの問題を解決するために、Stack Overflow (SO)のような技術的Q&Aサイトに質問を提出することが多い。
実際には、プログラミングの問題を説明するための質問付きのサンプルコードスニペットが含まれている。
残念なことに、このようなコードスニペットはいくつかの未解決の課題のために常に問題を再現できなかった。
論文 参考訳(メタデータ) (2024-07-13T22:55:35Z) - Which questions should I answer? Salience Prediction of Inquisitive Questions [118.097974193544]
非常に健全な質問は、同じ記事で経験的に答えられる可能性が高いことを示す。
質問に対する回答が,ニュースの要約品質の指標であることを示すことで,我々の知見をさらに検証する。
論文 参考訳(メタデータ) (2024-04-16T21:33:05Z) - Answering Ambiguous Questions with a Database of Questions, Answers, and
Revisions [95.92276099234344]
ウィキペディアから生成される曖昧な質問のデータベースを利用して、あいまいな質問に答えるための新しい最先端技術を提案する。
提案手法は,リコール対策で15%,予測出力から不明瞭な質問を評価する尺度で10%向上する。
論文 参考訳(メタデータ) (2023-08-16T20:23:16Z) - Asking Clarification Questions to Handle Ambiguity in Open-Domain QA [25.80369529145732]
本稿では,ユーザの反応がユーザの意図に最も合致する解釈を識別する上で有効であることを示す。
最初に,5,654の曖昧な質問からなるデータセットであるCAMBIGNQを提示する。
次にタスクのパイプラインを定義し、適切な評価指標を設計します。
論文 参考訳(メタデータ) (2023-05-23T08:20:01Z) - Answer ranking in Community Question Answering: a deep learning approach [0.0]
本研究は, 地域質問回答の回答ランキングを, 深層学習のアプローチで進めることによって, 技術の現状を推し進めるものである。
Stack OverflowのWebサイトにポストされた質問と回答の大規模なデータセットを作成しました。
我々は,高密度埋め込みとLSTMネットワークの自然言語処理機能を利用して,受理された応答属性の予測を行った。
論文 参考訳(メタデータ) (2022-10-16T18:47:41Z) - Features that Predict the Acceptability of Java and JavaScript Answers
on Stack Overflow [5.332217496693262]
私たちは、最も人気のある2つのタグ(JavaとJavaScript)の質問と回答を分析してStack Overflowデータセットを調査しました。
その結果,回答中のコードの長さ,ユーザの評判,質問と回答間のテキストの類似性,質問と回答間の時間ラグは,受け入れられない回答と受け入れられない回答を区別する最も高い予測力を有することがわかった。
論文 参考訳(メタデータ) (2021-01-08T03:09:38Z) - IIRC: A Dataset of Incomplete Information Reading Comprehension
Questions [53.3193258414806]
我々は、英語Wikipediaの段落に13K以上の質問があるIIRCというデータセットを提示する。
質問は、リンクされた文書にアクセスできなかった群衆労働者によって書かれた。
我々は、このデータセットのベースラインモデルを構築するために、様々な読解データセットに関する最近のモデリング作業に従う。
論文 参考訳(メタデータ) (2020-11-13T20:59:21Z) - Improving Quality of a Post's Set of Answers in Stack Overflow [2.0625936401496237]
Stack Overflowの低品質な投稿の多くは改善を必要としている。
本稿では,このような投稿の識別プロセスを自動化し,回答の集合を強化するアプローチを提案する。
論文 参考訳(メタデータ) (2020-05-30T19:40:19Z) - What Are People Asking About COVID-19? A Question Classification Dataset [56.609360198598914]
13のソースから1,690件のCOVID-19に関する質問の集合であるCOVID-Qを提示する。
われわれのデータセットで最も一般的な質問は、COVID-19の感染、予防、社会的影響についてだった。
複数のソースに現れた多くの質問は、CDCやFDAのような信頼できる組織のFAQのウェブサイトでは答えられませんでした。
論文 参考訳(メタデータ) (2020-05-26T05:41:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。