論文の概要: Automated Summarization of Stack Overflow Posts
- arxiv url: http://arxiv.org/abs/2305.16680v1
- Date: Fri, 26 May 2023 07:02:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-24 05:25:08.554559
- Title: Automated Summarization of Stack Overflow Posts
- Title(参考訳): stack overflowポストの自動要約
- Authors: Bonan Kou, Muhao Chen, Tianyi Zhang
- Abstract要約: 本稿では,Stack Overflow後要約のためのASSORTというディープラーニングフレームワークを提案する。
ASSORT_SとASSORT_ISという2つの補完的な学習方法を備えており、SOポスト要約のためのラベル付きトレーニングデータの欠如に対処する。
ASSORT_SとASSORT_ISはF1スコアでそれぞれ6つの既存手法を13%、7%上回った。
- 参考スコア(独自算出の注目度): 38.31918457125964
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Software developers often resort to Stack Overflow (SO) to fill their
programming needs. Given the abundance of relevant posts, navigating them and
comparing different solutions is tedious and time-consuming. Recent work has
proposed to automatically summarize SO posts to concise text to facilitate the
navigation of SO posts. However, these techniques rely only on information
retrieval methods or heuristics for text summarization, which is insufficient
to handle the ambiguity and sophistication of natural language. This paper
presents a deep learning based framework called ASSORT for SO post
summarization. ASSORT includes two complementary learning methods, ASSORT_S and
ASSORT_{IS}, to address the lack of labeled training data for SO post
summarization. ASSORT_S is designed to directly train a novel ensemble learning
model with BERT embeddings and domainspecific features to account for the
unique characteristics of SO posts. By contrast, ASSORT_{IS} is designed to
reuse pre-trained models while addressing the domain shift challenge when no
training data is present (i.e., zero-shot learning). Both ASSORT_S and
ASSORT_{IS} outperform six existing techniques by at least 13% and 7%
respectively in terms of the F1 score. Furthermore, a human study shows that
participants significantly preferred summaries generated by ASSORT_S and
ASSORT_{IS} over the best baseline, while the preference difference between
ASSORT_S and ASSORT_{IS} was small.
- Abstract(参考訳): ソフトウェア開発者はしばしば、プログラミングニーズを満たすためにStack Overflow (SO)を使う。
関連記事が多数あることを考えると、それらをナビゲートし、異なるソリューションを比較するのは面倒で時間がかかる。
近年,SOポストのナビゲーションを容易にするために,テキストを簡潔に要約する作業が提案されている。
しかし、これらの手法は、自然言語の曖昧さや洗練を扱うには不十分なテキスト要約のための情報検索手法やヒューリスティックスにのみ依存する。
本稿では,ASSORTと呼ばれる深層学習に基づくフレームワークについて述べる。
ASSORTには2つの補完学習手法、ASSORT_SとASSORT_{IS}が含まれており、SOポスト要約のためのラベル付きトレーニングデータの欠如に対処する。
ASSORT_Sは、新しいアンサンブル学習モデルをBERT埋め込みとドメイン固有の特徴で直接訓練し、SOポストのユニークな特徴を説明するように設計されている。
対照的に、ASSORT_{IS} は訓練データがない場合(ゼロショット学習)にドメインシフトの問題に対処しながら、事前訓練されたモデルを再利用するように設計されている。
ASSORT_S と ASSORT_{IS はいずれも F1 スコアでそれぞれ 13% と 7% の既成技術より優れていた。
また,ASSORT_S と ASSORT_S の選好差は小さく,ASSORT_S と ASSORT_S が生成する要約を最良基準よりも有意に好んだ。
関連論文リスト
- DiVA-DocRE: A Discriminative and Voice-Aware Paradigm for Document-Level Relation Extraction [0.3208888890455612]
識別・音声認識パラダイム DiVA を導入する。
私たちの革新はDocREを差別的なタスクに変換することです。
Re-DocREDおよびDocREDデータセットの実験では、DocRTEタスクの最先端の結果が示されている。
論文 参考訳(メタデータ) (2024-09-07T18:47:38Z) - AutoRE: Document-Level Relation Extraction with Large Language Models [27.426703757501507]
我々は、RHF(Relation-Head-Facts)という新しいRE抽出パラダイムを採用した、エンド・ツー・エンドのDocREモデルであるAutoREを紹介する。
既存のアプローチとは異なり、AutoREは既知の関係オプションの仮定に依存しておらず、現実のシナリオをより反映している。
RE-DocREDデータセットの実験では、AutoREの最高のパフォーマンスを示し、最先端の結果が得られました。
論文 参考訳(メタデータ) (2024-03-21T23:48:21Z) - Active Learning for Abstractive Text Summarization [50.79416783266641]
本稿では,抽象テキスト要約におけるアクティブラーニングのための最初の効果的なクエリ戦略を提案する。
ALアノテーションにおける私たちの戦略は、ROUGEと一貫性スコアの点からモデル性能を向上させるのに役立ちます。
論文 参考訳(メタデータ) (2023-01-09T10:33:14Z) - Enriching Relation Extraction with OpenIE [70.52564277675056]
関係抽出(RE)は情報抽出(IE)のサブ分野である
本稿では,オープン情報抽出(OpenIE)の最近の取り組みがREの課題の改善にどのように役立つかを検討する。
本稿では,2つの注釈付きコーパスであるKnowledgeNetとFewRelを用いた実験により,拡張モデルの精度向上を実証した。
論文 参考訳(メタデータ) (2022-12-19T11:26:23Z) - Towards Abstractive Timeline Summarisation using Preference-based
Reinforcement Learning [3.6640004265358477]
本稿では,複数のニュースソースから報告されるイベントの時系列を要約する新しいパイプラインを提案する。
抽象的な要約のためのトランスフォーマーに基づくモデルは、長い文書のコヒーレントで簡潔な要約を生成する。
抽出要約は情報源に忠実であるが、読みにくく、余分な情報や不要な情報を含んでいる可能性がある。
論文 参考訳(メタデータ) (2022-11-14T18:24:13Z) - Mixed-modality Representation Learning and Pre-training for Joint
Table-and-Text Retrieval in OpenQA [85.17249272519626]
最適化された OpenQA Table-Text Retriever (OTTeR) を提案する。
検索中心の混合モード合成事前学習を行う。
OTTeRはOTT-QAデータセット上でのテーブル・アンド・テキスト検索の性能を大幅に改善する。
論文 参考訳(メタデータ) (2022-10-11T07:04:39Z) - ASDOT: Any-Shot Data-to-Text Generation with Pretrained Language Models [82.63962107729994]
Any-Shot Data-to-Text (ASDOT)は、多様な設定に柔軟に適用可能な新しいアプローチである。
データ曖昧化と文の融合という2つのステップから構成される。
実験の結果, ASDOT はベースラインよりも顕著な改善が得られた。
論文 参考訳(メタデータ) (2022-10-09T19:17:43Z) - Text Summarization with Latent Queries [60.468323530248945]
本稿では,LaQSumについて紹介する。LaQSumは,既存の問合せ形式と抽象的な要約のための文書から遅延クエリを学習する,最初の統一テキスト要約システムである。
本システムでは, 潜伏クエリモデルと条件付き言語モデルとを協調的に最適化し, ユーザがテスト時に任意のタイプのクエリをプラグイン・アンド・プレイできるようにする。
本システムでは,クエリタイプ,文書設定,ターゲットドメインの異なる要約ベンチマークにおいて,強力な比較システムの性能を強く向上させる。
論文 参考訳(メタデータ) (2021-05-31T21:14:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。