論文の概要: Support-BERT: Predicting Quality of Question-Answer Pairs in MSDN using
Deep Bidirectional Transformer
- arxiv url: http://arxiv.org/abs/2005.08294v1
- Date: Sun, 17 May 2020 16:50:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-02 05:36:41.015474
- Title: Support-BERT: Predicting Quality of Question-Answer Pairs in MSDN using
Deep Bidirectional Transformer
- Title(参考訳): Support-BERT:Deep Bidirectional Transformer を用いたMSDNにおける質問応答ペアの品質予測
- Authors: Bhaskar Sen, Nikhil Gopal, and Xinwei Xue
- Abstract要約: 我々は,最近開発された双方向トランスフォーマーを用いたディープラーニングモデルを用いて,コミュニティ支援Webサイトの品質Q&Aモデリング問題に取り組む。
Microsoft Developer Network(MSDN)から抽出したQ&Aの微調整とともに、モデルをさらに事前トレーニングすることで、自動品質予測のパフォーマンスが80%以上向上することが判明した。
- 参考スコア(独自算出の注目度): 7.818765015637801
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Quality of questions and answers from community support websites (e.g.
Microsoft Developers Network, Stackoverflow, Github, etc.) is difficult to
define and a prediction model of quality questions and answers is even more
challenging to implement. Previous works have addressed the question quality
models and answer quality models separately using meta-features like number of
up-votes, trustworthiness of the person posting the questions or answers,
titles of the post, and context naive natural language processing features.
However, there is a lack of an integrated question-answer quality model for
community question answering websites in the literature. In this brief paper,
we tackle the quality Q&A modeling problems from the community support websites
using a recently developed deep learning model using bidirectional
transformers. We investigate the applicability of transfer learning on Q&A
quality modeling using Bidirectional Encoder Representations from Transformers
(BERT) trained on a separate tasks originally using Wikipedia. It is found that
a further pre-training of BERT model along with finetuning on the Q&As
extracted from Microsoft Developer Network (MSDN) can boost the performance of
automated quality prediction to more than 80%. Furthermore, the implementations
are carried out for deploying the finetuned model in real-time scenario using
AzureML in Azure knowledge base system.
- Abstract(参考訳): コミュニティサポートWebサイト(例えば、Microsoft Developers Network、Stackoverflow、Githubなど)からの質問や回答の品質は定義が困難であり、品質に関する質問や回答の予測モデルの実装はさらに困難である。
以前の著作では、質問品質モデルと回答品質モデルに、アップボアの数、質問や回答を投稿する人の信頼性、投稿のタイトル、文脈ナイーブな自然言語処理機能といったメタ機能を使用して別々に取り組んだ。
しかし,文献上では,コミュニティ質問応答webサイトのための統合質問応答品質モデルが欠如している。
本稿では,最近開発された双方向トランスフォーマーを用いたディープラーニングモデルを用いて,コミュニティ支援サイトの品質Q&Aモデリング問題に取り組む。
ウィキペディアを用いた別のタスクで訓練された変換器(BERT)の双方向エンコーダ表現を用いたQ&A品質モデリングにおける伝達学習の適用性を検討した。
Microsoft Developer Network (MSDN) から抽出したQ&Aの微調整とともに,BERTモデルをさらに事前トレーニングすることで,自動品質予測の性能を80%以上向上させることができることがわかった。
さらに、AzureナレッジベースシステムでAzureMLを使用して、詳細なモデルをリアルタイムシナリオにデプロイするための実装も実施されている。
関連論文リスト
- Retrieval-Augmented Natural Language Reasoning for Explainable Visual Question Answering [2.98667511228225]
ReReは、事前訓練されたクリップビジョンエンコーダと事前訓練されたGPT-2言語モデルをデコーダとして使用するエンコーダ/デコーダアーキテクチャモデルである。
ReReは、VQA精度と説明スコアにおいて従来の手法よりも優れており、より説得力があり信頼性の高いNLEの改善を示している。
論文 参考訳(メタデータ) (2024-08-30T04:39:43Z) - QASnowball: An Iterative Bootstrapping Framework for High-Quality
Question-Answering Data Generation [67.27999343730224]
QAデータ拡張のための反復型ブートストラップフレームワーク(QASnowball)を導入する。
QASnowballは、教師付きサンプルのシードセットに基づいて、大規模で高品質なQAデータを反復的に生成することができる。
本研究では, 高資源の英語シナリオと中資源の中国語シナリオで実験を行い, 実験結果から, QASnowball が生成したデータによりQAモデルを容易に作成できることが示唆された。
論文 参考訳(メタデータ) (2023-09-19T05:20:36Z) - Generative Language Models for Paragraph-Level Question Generation [79.31199020420827]
強力な生成モデルが質問生成(QG)の最近の進歩につながっている
標準化された資源が存在しないため,QG研究の進歩を測定することは困難である。
我々はQGのベンチマークであるQG-Benchを導入し、既存のQGデータセットを標準QG設定に変換することで、既存の質問応答データセットを統一する。
論文 参考訳(メタデータ) (2022-10-08T10:24:39Z) - Improving Unsupervised Question Answering via Summarization-Informed
Question Generation [47.96911338198302]
質問生成 (QG) とは, 質問文, 質問文, 質問文, 質問文, 質問文, 質問文, 質問文, 質問文, 質問文, 質問文, 質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、
我々は、自由なニュース要約データを使用し、宣言文を依存性解析、名前付きエンティティ認識、セマンティックロールラベリングを用いて適切な質問に変換する。
得られた質問は、元のニュース記事と組み合わせて、エンドツーエンドのニューラルQGモデルをトレーニングする。
論文 参考訳(メタデータ) (2021-09-16T13:08:43Z) - Can NLI Models Verify QA Systems' Predictions? [34.46234860404459]
私たちは、自然言語推論(NLI)を使用して堅牢な質問応答システムを構築します。
大規模なトレーニング済みモデルと最近のデータセットを活用して、強力な質問コンバータと非コンテキスト化モジュールを構築しています。
我々のNLIアプローチは、一般的に異なる領域にわたるQAモデルの信頼性推定を改善することができることを示す。
論文 参考訳(メタデータ) (2021-04-18T06:03:07Z) - Learning from Lexical Perturbations for Consistent Visual Question
Answering [78.21912474223926]
既存のVisual Question Answering (VQA)モデルは、しばしば脆弱で入力のバリエーションに敏感である。
本稿では,モジュール型ネットワークに基づく新たなアプローチを提案し,言語摂動による2つの疑問を提起する。
VQA Perturbed Pairings (VQA P2) も提案する。
論文 参考訳(メタデータ) (2020-11-26T17:38:03Z) - Summary-Oriented Question Generation for Informational Queries [23.72999724312676]
主文書のトピックに焦点をあてた自己説明的質問を,適切な長さのパスで答えられるようにすることを目的としている。
本モデルでは,NQデータセット(20.1BLEU-4)上でのSQ生成のSOTA性能を示す。
我々はさらに,本モデルをドメイン外のニュース記事に適用し,ゴールド質問の欠如によるQAシステムによる評価を行い,私たちのモデルがニュース記事に対してより良いSQを生成することを実証し,人間による評価によるさらなる確認を行う。
論文 参考訳(メタデータ) (2020-10-19T17:30:08Z) - Simplifying Paragraph-level Question Generation via Transformer Language
Models [0.0]
質問生成(QG)は、ある入力テキストに対応する質問をモデルに訓練する自然言語生成タスクである。
1つのTransformerベースの一方向言語モデルで、トランスファーラーニングを利用して高品質な質問を生成することができる。
我々のQGモデルは、GPT-2 Smallから微調整され、SQuADデータセット上のいくつかの段落レベルのQGベースラインを0.95 METEORポイントで上回る。
論文 参考訳(メタデータ) (2020-05-03T14:57:24Z) - Template-Based Question Generation from Retrieved Sentences for Improved
Unsupervised Question Answering [98.48363619128108]
擬似学習データを用いてQAモデルを訓練するための教師なしアプローチを提案する。
関連した検索文に簡単なテンプレートを適用してQA学習のための質問を生成すると、元の文脈文よりも、下流QAのパフォーマンスが向上することを示す。
論文 参考訳(メタデータ) (2020-04-24T17:57:45Z) - ManyModalQA: Modality Disambiguation and QA over Diverse Inputs [73.93607719921945]
本稿では, エージェントが3つの異なるモダリティを考慮し, 質問に答えなければならない, マルチモーダルな質問応答課題, ManyModalQAを提案する。
われわれはウィキペディアをスクラップしてデータを収集し、クラウドソーシングを利用して質問と回答のペアを収集する。
論文 参考訳(メタデータ) (2020-01-22T14:39:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。