論文の概要: orgFAQ: A New Dataset and Analysis on Organizational FAQs and User
Questions
- arxiv url: http://arxiv.org/abs/2009.01460v1
- Date: Thu, 3 Sep 2020 05:51:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-22 07:36:01.995682
- Title: orgFAQ: A New Dataset and Analysis on Organizational FAQs and User
Questions
- Title(参考訳): orgFAQ: 組織的FAQとユーザ質問の新しいデータセットと分析
- Authors: Guy Lev, Michal Shmueli-Scheuer, Achiya Jerbi, David Konopnicki
- Abstract要約: 頻繁な質問(FAQ)のWebページは、ユーザのための組織によって作成されます。
ユーザ質問が6988ドル、対応するFAQが1579ドルという新しいデータセットであるorgFAQをリリースしました。
新型コロナウイルスのパンデミックという別の領域のタスクにおいて、orgFAQデータセットの価値を示します。
- 参考スコア(独自算出の注目度): 12.718010092891928
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Frequently Asked Questions (FAQ) webpages are created by organizations for
their users. FAQs are used in several scenarios, e.g., to answer user
questions. On the other hand, the content of FAQs is affected by user questions
by definition. In order to promote research in this field, several FAQ datasets
exist. However, we claim that being collected from community websites, they do
not correctly represent challenges associated with FAQs in an organizational
context. Thus, we release orgFAQ, a new dataset composed of $6988$ user
questions and $1579$ corresponding FAQs that were extracted from organizations'
FAQ webpages in the Jobs domain. In this paper, we provide an analysis of the
properties of such FAQs, and demonstrate the usefulness of our new dataset by
utilizing it in a relevant task from the Jobs domain. We also show the value of
the orgFAQ dataset in a task of a different domain - the COVID-19 pandemic.
- Abstract(参考訳): 頻繁な質問(faq) webページは、ユーザのために組織によって作成されます。
FAQは、ユーザの質問に答えるために、いくつかのシナリオで使用される。
一方,FAQの内容はユーザによる質問によって影響を受ける。
この分野での研究を促進するために、いくつかのFAQデータセットが存在する。
しかし,コミュニティWebサイトから収集されているため,FAQに関連する課題を組織的な文脈で正しく表現することはできない。
そこで私たちは,Jobsドメイン内の組織のFAQ Webページから抽出した,6988ドルのユーザ質問と1579ドルの対応するFAQからなる,新たなデータセットであるorgFAQをリリースした。
本稿では,このようなFAQの特性を解析し,ジョブドメインから関連するタスクに利用することで,新たなデータセットの有用性を実証する。
また、異なるドメイン — COVID-19パンデミック — のタスクにおいて、orgFAQデータセットの価値も示します。
関連論文リスト
- Open Domain Question Answering with Conflicting Contexts [55.739842087655774]
あいまいでオープンなドメインの質問の25%は、Google Searchを使って検索すると、コンフリクトのあるコンテキストにつながります。
我々はアノテータに正しい回答の選択についての説明を依頼する。
論文 参考訳(メタデータ) (2024-10-16T07:24:28Z) - QAGCF: Graph Collaborative Filtering for Q&A Recommendation [58.21387109664593]
質問と回答(Q&A)プラットフォームは通常、ユーザの知識獲得のニーズを満たすために質問と回答のペアを推奨する。
これにより、ユーザの振る舞いがより複雑になり、Q&Aレコメンデーションの2つの課題が提示される。
グラフニューラルネットワークモデルであるQ&Answer Graph Collaborative Filtering (QAGCF)を導入する。
論文 参考訳(メタデータ) (2024-06-07T10:52:37Z) - FAQ-Gen: An automated system to generate domain-specific FAQs to aid content comprehension [0.0]
頻繁に質問される質問(FAQ)は、特定のコンテンツに関する最も一般的な質問を指す。
トピックを単純化し、情報を簡潔に提示することで理解を強化することで、コンテンツ理解支援として機能する。
本稿では,テキストからテキストへの変換モデルを利用したエンドツーエンドシステムの開発を通じて,FAQ生成を自然言語処理タスクとして扱う。
論文 参考訳(メタデータ) (2024-02-08T16:49:41Z) - MFBE: Leveraging Multi-Field Information of FAQs for Efficient Dense
Retrieval [1.7403133838762446]
本稿では,複数組み合わせのFAQフィールドを利用するバイエンコーダベースのクエリ-FAQマッチングモデルを提案する。
本モデルでは,内部およびオープンデータセットにおけるFAQ検索タスクにおいて,約27%,20%の精度でトップ1の精度を実現している。
論文 参考訳(メタデータ) (2023-02-23T12:02:49Z) - Multi-Tenant Optimization For Few-Shot Task-Oriented FAQ Retrieval [0.0]
タスク指向ダイアログシステムにおけるビジネス固有の頻繁な質問(FAQ)検索は、ユニークな課題を提起する。
クエリクエスト(q-Q)類似度と少数ショットインテント検出技術を用いて,このようなビジネスFAQの性能を評価する。
文中の最後の層を対照的に微調整することで,マルチテナントFAQアプリケーションを現実のコンテキストでスケールする手法を提案する。
論文 参考訳(メタデータ) (2023-01-25T10:55:45Z) - CREPE: Open-Domain Question Answering with False Presuppositions [92.20501870319765]
オンライン情報検索フォーラムからの予測失敗の自然な分布を含むQAデータセットであるCREPEを紹介する。
25%の質問が偽の前提命題を含み、これらの前提命題とその修正のための注釈を提供する。
既存のオープンドメインQAモデルの適応は適度に予測できるが、仮定が実際に正しいかどうかを予測するのに苦労する。
論文 参考訳(メタデータ) (2022-11-30T18:54:49Z) - A Dataset of Information-Seeking Questions and Answers Anchored in
Research Papers [66.11048565324468]
1,585の自然言語処理論文に関する5,049の質問のデータセットを提示する。
各質問は、対応する論文のタイトルと要約のみを読むNLP実践者によって書かれ、質問は全文に存在する情報を求めます。
他のQAタスクでうまく機能する既存のモデルは、これらの質問に答える上ではうまく機能せず、論文全体から回答する際には、少なくとも27 F1ポイントパフォーマンスが低下します。
論文 参考訳(メタデータ) (2021-05-07T00:12:34Z) - Inquisitive Question Generation for High Level Text Comprehension [60.21497846332531]
InQUISITIVEは、文書を読みながら19K質問を抽出するデータセットである。
我々は,読者が情報を求めるための実践的な戦略に携わることを示す。
我々は, GPT-2に基づく質問生成モデルを評価し, 妥当な質問を生成することができることを示す。
論文 参考訳(メタデータ) (2020-10-04T19:03:39Z) - DoQA -- Accessing Domain-Specific FAQs via Conversational QA [25.37327993590628]
2,437の対話と10,917のQAペアを持つデータセットであるDoQAを提示する。
対話は、クラウドソーシングを備えたWizard of Ozメソッドを使用して、3つのStack Exchangeサイトから収集される。
論文 参考訳(メタデータ) (2020-05-04T08:58:54Z) - AmbigQA: Answering Ambiguous Open-domain Questions [99.59747941602684]
我々はAmbigQAを紹介した。AmbigQAは、あらゆる可能な答えを見つけることを含む、新しいオープンドメインの質問応答タスクである。
この課題を研究するために,NQ-openから14,042質問をカバーしたデータセットAmbigNQを構築した。
NQオープンの質問の半数以上が曖昧で、イベントやエンティティ参照といった曖昧さの源泉が多様であることがわかった。
論文 参考訳(メタデータ) (2020-04-22T15:42:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。