論文の概要: On the Feasibility of Predicting Questions being Forgotten in Stack
Overflow
- arxiv url: http://arxiv.org/abs/2110.15789v1
- Date: Fri, 29 Oct 2021 15:59:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-01 14:58:28.344813
- Title: On the Feasibility of Predicting Questions being Forgotten in Stack
Overflow
- Title(参考訳): スタックオーバーフローにおける予測質問の可能性について
- Authors: Thi Huyen Nguyen, Tu Nguyen, Tuan-Anh Hoang, Claudia Nieder\'ee
- Abstract要約: 新しい技術、技術機能、および技術バージョンに関する疑問が持ち上がり、技術が進化するにつれて答える必要がある。
同時に、他の質問は時間とともに重要視されなくなり、最終的にユーザにとって無関係になる。
質問は、Stack Overflowのコンテンツを簡潔かつ有用に保つための重要なステップです。
- 参考スコア(独自算出の注目度): 1.9403536652499676
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: For their attractiveness, comprehensiveness and dynamic coverage of relevant
topics, community-based question answering sites such as Stack Overflow heavily
rely on the engagement of their communities: Questions on new technologies,
technology features as well as technology versions come up and have to be
answered as technology evolves (and as community members gather experience with
it). At the same time, other questions cease in importance over time, finally
becoming irrelevant to users. Beyond filtering low-quality questions,
"forgetting" questions, which have become redundant, is an important step for
keeping the Stack Overflow content concise and useful. In this work, we study
this managed forgetting task for Stack Overflow. Our work is based on data from
more than a decade (2008 - 2019) - covering 18.1M questions, that are made
publicly available by the site itself. For establishing a deeper understanding,
we first analyze and characterize the set of questions about to be forgotten,
i.e., questions that get a considerable number of views in the current period
but become unattractive in the near future. Subsequently, we examine the
capability of a wide range of features in predicting such forgotten questions
in different categories. We find some categories in which those questions are
more predictable. We also discover that the text-based features are
surprisingly not helpful in this prediction task, while the meta information is
much more predictive.
- Abstract(参考訳): 関連トピックの魅力、包括性、ダイナミックなカバレッジのために、stack overflowのようなコミュニティベースの質問応答サイトはコミュニティの関与に大きく依存している。
同時に、時間とともに他の質問は重要でなくなり、最終的にユーザにとって無関係になる。
低品質の質問をフィルタリングするだけでなく、冗長になった"フォーティング"質問は、stack overflowのコンテンツを簡潔かつ便利に保つための重要なステップです。
本研究では,Stack Overflowにおけるこの管理された忘れタスクについて検討する。
私たちの仕事は10年以上(2008年~2019年)のデータに基づいており、サイト自体が公開している1810万の質問をカバーしています。
より深い理解を確立するために、我々はまず忘れられるべき質問の集合、すなわち、現在においてかなりの数のビューを得るが、近い将来は魅力のない質問の分析と特徴付けを行う。
その後,様々なカテゴリで忘れられた質問を予測できる幅広い特徴の能力について検討する。
これらの質問がより予測可能なカテゴリがいくつかあります。
また、テキストベースの機能は、この予測タスクでは驚くほど役に立ちませんが、メタ情報はずっと予測的です。
関連論文リスト
- How to Engage Your Readers? Generating Guiding Questions to Promote Active Reading [60.19226384241482]
教科書や科学論文から10Kのインテキスト質問のデータセットであるGuidingQを紹介した。
言語モデルを用いてこのような質問を生成するための様々なアプローチを探索する。
我々は、そのような質問が読解に与える影響を理解するために、人間の研究を行う。
論文 参考訳(メタデータ) (2024-07-19T13:42:56Z) - Which questions should I answer? Salience Prediction of Inquisitive Questions [118.097974193544]
非常に健全な質問は、同じ記事で経験的に答えられる可能性が高いことを示す。
質問に対する回答が,ニュースの要約品質の指標であることを示すことで,我々の知見をさらに検証する。
論文 参考訳(メタデータ) (2024-04-16T21:33:05Z) - Answering Ambiguous Questions with a Database of Questions, Answers, and
Revisions [95.92276099234344]
ウィキペディアから生成される曖昧な質問のデータベースを利用して、あいまいな質問に答えるための新しい最先端技術を提案する。
提案手法は,リコール対策で15%,予測出力から不明瞭な質問を評価する尺度で10%向上する。
論文 参考訳(メタデータ) (2023-08-16T20:23:16Z) - Software Engineers' Questions and Answers on Stack Exchange [0.0]
我々は、幅広い領域を含むSoftware Engineering Stack Exchangeサイトの質問と回答を分析します。
質問された質問は、データベースシステム、品質保証、アジャイルソフトウェア開発に最もよく関連していることがわかった。
最も魅力的なトピックはキャリアとチームワークの問題であり、最も魅力的なトピックはネットワークプログラミングとソフトウェアモデリングだった。
論文 参考訳(メタデータ) (2023-06-20T13:39:49Z) - Best-Answer Prediction in Q&A Sites Using User Information [2.982218441172364]
コミュニティ質問回答 (CQA) サイトは近年, 大きく普及している。
そのような答えを見つけるための実践的な方法は、既存の回答とコメントが与えられた最高の候補を自動的に予測することです。
本稿では,質問者の背景情報やその他の特徴を用いて,最適な回答を予測するための新しい手法を用いて,この制限に対処する。
論文 参考訳(メタデータ) (2022-12-15T02:28:52Z) - Mining Duplicate Questions of Stack Overflow [5.924018537171331]
Stack Overflow上での重複質問検出のためのニューラルネットワークに基づくアーキテクチャを2つ提案する。
また,質問に含まれるコードを明示的にモデル化して,技術状況を超える結果が得られるようにも提案する。
論文 参考訳(メタデータ) (2022-10-04T14:34:59Z) - A Dataset of Information-Seeking Questions and Answers Anchored in
Research Papers [66.11048565324468]
1,585の自然言語処理論文に関する5,049の質問のデータセットを提示する。
各質問は、対応する論文のタイトルと要約のみを読むNLP実践者によって書かれ、質問は全文に存在する情報を求めます。
他のQAタスクでうまく機能する既存のモデルは、これらの質問に答える上ではうまく機能せず、論文全体から回答する際には、少なくとも27 F1ポイントパフォーマンスが低下します。
論文 参考訳(メタデータ) (2021-05-07T00:12:34Z) - GooAQ: Open Question Answering with Diverse Answer Types [63.06454855313667]
さまざまな回答型を持つ大規模データセットであるGooAQを紹介する。
このデータセットには500万の質問と300万の回答が含まれている。
論文 参考訳(メタデータ) (2021-04-18T05:40:39Z) - Attention-based model for predicting question relatedness on Stack
Overflow [0.0]
Stack Overflowにおける質問間の関連性を自動的に予測するアテンションベースの文対相互作用モデル(ASIM)を提案する。
ASIMは、Precision、Recall、Micro-F1評価メトリクスのベースラインアプローチを大幅に改善しました。
私たちのモデルは、Ask Ubuntuの重複質問検出タスクでもうまく機能します。
論文 参考訳(メタデータ) (2021-03-19T12:18:03Z) - Inquisitive Question Generation for High Level Text Comprehension [60.21497846332531]
InQUISITIVEは、文書を読みながら19K質問を抽出するデータセットである。
我々は,読者が情報を求めるための実践的な戦略に携わることを示す。
我々は, GPT-2に基づく質問生成モデルを評価し, 妥当な質問を生成することができることを示す。
論文 参考訳(メタデータ) (2020-10-04T19:03:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。