論文の概要: Studying and Recommending Information Highlighting in Stack Overflow Answers
- arxiv url: http://arxiv.org/abs/2401.01472v3
- Date: Thu, 25 Apr 2024 22:18:27 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-29 17:38:26.940391
- Title: Studying and Recommending Information Highlighting in Stack Overflow Answers
- Title(参考訳): スタックオーバーフロー回答における情報ハイライトの検討と推奨
- Authors: Shahla Shaan Ahmed, Shaowei Wang, Yuan Tian, Tse-Hsun, Chen, Haoxiang Zhang,
- Abstract要約: Stack Overflowの回答は31,169,429件でした。
推薦モデルのトレーニングには、CNNベースのモデルとBERTベースのモデルを選択します。
我々のモデルは、異なるフォーマットで0.50から0.72の精度を達成する。
- 参考スコア(独自算出の注目度): 47.98908661334215
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Context: Navigating the knowledge of Stack Overflow (SO) remains challenging. To make the posts vivid to users, SO allows users to write and edit posts with Markdown or HTML so that users can leverage various formatting styles (e.g., bold, italic, and code) to highlight the important information. Nonetheless, there have been limited studies on the highlighted information. Objective: We carried out the first large-scale exploratory study on the information highlighted in SO answers in our recent study. To extend our previous study, we develop approaches to automatically recommend highlighted content with formatting styles using neural network architectures initially designed for the Named Entity Recognition task. Method: In this paper, we studied 31,169,429 answers of Stack Overflow. For training recommendation models, we choose CNN-based and BERT-based models for each type of formatting (i.e., Bold, Italic, Code, and Heading) using the information highlighting dataset we collected from SO answers. Results: Our models achieve a precision ranging from 0.50 to 0.72 for different formatting types. It is easier to build a model to recommend Code than other types. Models for text formatting types (i.e., Heading, Bold, and Italic) suffer low recall. Our analysis of failure cases indicates that the majority of the failure cases are due to missing identification. One explanation is that the models are easy to learn the frequent highlighted words while struggling to learn less frequent words (i.g., long-tail knowledge). Conclusion: Our findings suggest that it is possible to develop recommendation models for highlighting information for answers with different formatting styles on Stack Overflow.
- Abstract(参考訳): コンテキスト: Stack Overflow(SO)の知識をナビゲートすることはまだ難しい。
ユーザーが投稿を鮮明にするために、ユーザーがMarkdownやHTMLで投稿を書いたり編集したりできるので、ユーザーは様々なフォーマットスタイル(大胆、イタリック、コードなど)を利用して重要な情報をハイライトすることができる。
それにもかかわらず、強調された情報についての研究は限られている。
目的: 本稿ではSO回答で強調された情報について, 大規模な調査を行った。
従来の研究を拡張すべく、まず名前付きエンティティ認識タスク用に設計されたニューラルネットワークアーキテクチャを用いて、フォーマットスタイルでハイライトされたコンテンツを自動的に推奨する手法を開発した。
方法:本論文では,Stack Overflowの31,169,429の回答について検討した。
推奨モデルのトレーニングには、SOの回答から収集した情報ハイライトデータセットを使用して、CNNベースのモデルとBERTベースのモデル(Bold、Italic、Code、Headingなど)を選択します。
結果:本モデルでは,異なるフォーマットタイプに対して0.50~0.72の精度を実現している。
他の型よりもCodeを推奨するモデルを構築するのが簡単です。
テキストフォーマッティングタイプ(Heading、Bold、Italic)のモデルはリコールが低い。
フェールケースの分析は、障害ケースの大部分は、識別の欠如によるものであることを示している。
1つの説明は、モデルは、あまり頻度の低い単語(例えば、長い尾の知識)を学ぶのに苦労しながら、頻繁に強調される単語を習得し易いということである。
結論:Stack Overflow上で異なるフォーマットスタイルの回答をハイライトするためのレコメンデーションモデルを開発することが可能であることが示唆された。
関連論文リスト
- From Lists to Emojis: How Format Bias Affects Model Alignment [67.08430328350327]
人的フィードバックからの強化学習における形式バイアスについて検討する。
人間の評価者を含む多くの広く使われている嗜好モデルは、特定のフォーマットパターンに対して強いバイアスを示す。
バイアスデータが少ないと、報酬モデルにかなりのバイアスを注入できることを示す。
論文 参考訳(メタデータ) (2024-09-18T05:13:18Z) - Clarify: Improving Model Robustness With Natural Language Corrections [59.041682704894555]
モデルを教える標準的な方法は、大量のデータを提供することです。
このアプローチは、データ内の誤解を招く信号を拾うため、モデルに誤ったアイデアを教えることが多い。
モデル誤解をインタラクティブに修正するためのインターフェースと手法であるClarifyを提案する。
論文 参考訳(メタデータ) (2024-02-06T05:11:38Z) - EIGEN: Expert-Informed Joint Learning Aggregation for High-Fidelity
Information Extraction from Document Images [27.36816896426097]
レイアウトフォーマットの多様性が高いため,文書画像からの情報抽出は困難である。
本稿では,ルールベースの手法とデータプログラミングを用いたディープラーニングモデルを組み合わせた新しい手法であるEIGENを提案する。
我々のEIGENフレームワークは、ラベル付きデータインスタンスがほとんどない状態で、最先端のディープモデルの性能を大幅に向上させることができることを実証的に示しています。
論文 参考訳(メタデータ) (2023-11-23T13:20:42Z) - Large Language Models Meet Knowledge Graphs to Answer Factoid Questions [57.47634017738877]
本稿では,知識グラフから追加情報に富んだ事前学習されたテキスト・テキスト言語モデルを探索する手法を提案する。
抽出した部分グラフの線形化によりトランスフォーマーモデルで容易に情報を得る。
抽出された情報で回答候補を最終ランク付けすると、事前訓練されたテキスト-テキスト言語モデルのHits@1スコアが4-6%向上する。
論文 参考訳(メタデータ) (2023-10-03T15:57:00Z) - Representation Learning for Stack Overflow Posts: How Far are We? [14.520780251680586]
最先端のStack Overflowポスト表現モデルはPost2VecとBERTOverflowである。
有望な結果にもかかわらず、これらの表現法は同じ実験環境では評価されていない。
本稿では,SOBERTを提案する。
論文 参考訳(メタデータ) (2023-03-13T04:49:06Z) - DapStep: Deep Assignee Prediction for Stack Trace Error rePresentation [61.99379022383108]
本稿では,バグトリアージ問題を解決するための新しいディープラーニングモデルを提案する。
モデルは、注目された双方向のリカレントニューラルネットワークと畳み込みニューラルネットワークに基づいている。
ランキングの質を向上させるために,バージョン管理システムのアノテーションから追加情報を利用することを提案する。
論文 参考訳(メタデータ) (2022-01-14T00:16:57Z) - Topic Adaptation and Prototype Encoding for Few-Shot Visual Storytelling [81.33107307509718]
トピック間一般化の能力をモデル化するためのトピック適応型ストーリーテラを提案する。
また,アトピー内導出能力のモデル化を目的とした符号化手法の試作も提案する。
実験結果から,トピック適応とプロトタイプ符号化構造が相互に利益をもたらすことが明らかとなった。
論文 参考訳(メタデータ) (2020-08-11T03:55:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。