論文の概要: FAQ-Gen: An automated system to generate domain-specific FAQs to aid
content comprehension
- arxiv url: http://arxiv.org/abs/2402.05812v1
- Date: Thu, 8 Feb 2024 16:49:41 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-09 14:03:57.306096
- Title: FAQ-Gen: An automated system to generate domain-specific FAQs to aid
content comprehension
- Title(参考訳): FAQ-Gen:コンテンツ理解を支援するドメイン固有FAQの自動生成システム
- Authors: Sahil Kale, Gautam Khaire, Jay Patankar
- Abstract要約: 頻繁に質問される質問(FAQ)は、特定のコンテンツに関する最も一般的な質問を指す。
トピックを単純化し、情報を簡潔に提示することで理解を強化することで、コンテンツ理解支援として機能する。
我々は,テキストからテキストへの変換モデルを利用したエンドツーエンドシステムの開発を通じて,FAQ生成を自然言語処理(NLP)タスクとして扱う。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Frequently Asked Questions (FAQs) refer to the most common inquiries about
specific content. They serve as content comprehension aids by simplifying
topics and enhancing understanding through succinct presentation of
information. In this paper, we address FAQ generation as a well-defined Natural
Language Processing (NLP) task through the development of an end-to-end system
leveraging text-to-text transformation models. We present a literature review
covering traditional question-answering systems, highlighting their limitations
when applied directly to the FAQ generation task. We propose our system capable
of building FAQs from textual content tailored to specific domains, enhancing
their accuracy and relevance. We utilise self-curated algorithms for obtaining
optimal representation of information to be provided as input and also for
ranking the question-answer pairs to maximise human comprehension. Qualitative
human evaluation showcases the generated FAQs to be well-constructed and
readable, while also utilising domain-specific constructs to highlight
domain-based nuances and jargon in the original content.
- Abstract(参考訳): 頻繁に質問される質問(FAQ)は、特定のコンテンツに関する最も一般的な質問を指す。
トピックを単純化し、情報を簡潔に提示することで理解を強化することで、コンテンツ理解支援として機能する。
本稿では,テキストからテキストへの変換モデルを利用したエンドツーエンドシステムの開発を通じて,FAQ生成を自然言語処理(NLP)タスクとして扱う。
本稿では,従来の質問応答システムに関する文献レビューを行い,FAQ生成タスクに直接適用した場合の限界を明らかにする。
本システムでは,特定のドメインに適したテキストコンテンツからFAQを作成でき,精度と妥当性を高めることができる。
我々は、入力として提供される情報の最適な表現を得るための自己計算アルゴリズムと、人間の理解を最大化するための質問応答ペアのランキングを利用する。
定性的な人間の評価は、生成されたFAQをよく構築し、読みやすくすると同時に、ドメイン固有の構造を利用して、元のコンテンツにドメインベースのニュアンスとジャーゴンをハイライトする。
関連論文リスト
- Domain-Specific Retrieval-Augmented Generation Using Vector Stores, Knowledge Graphs, and Tensor Factorization [7.522493227357079]
大規模言語モデル(LLM)は大規模コーパスで事前訓練されている。
LLMは幻覚、知識の遮断、知識の帰属の欠如に悩まされる。
SMART-SLICはドメイン固有のLLMフレームワークである。
論文 参考訳(メタデータ) (2024-10-03T17:40:55Z) - Auto FAQ Generation [0.0]
本稿では,FAQ文書を生成するシステムを提案する。
既存のテキスト要約、テキストランクアルゴリズムによる文章ランキング、質問生成ツールを用いて、質問と回答の初期セットを作成します。
論文 参考訳(メタデータ) (2024-05-13T03:30:27Z) - DIVKNOWQA: Assessing the Reasoning Ability of LLMs via Open-Domain
Question Answering over Knowledge Base and Text [73.68051228972024]
大きな言語モデル(LLM)は印象的な生成能力を示すが、内部知識に依存すると幻覚に悩まされる。
検索拡張LDMは、外部知識においてLLMを基盤とする潜在的な解決策として出現している。
論文 参考訳(メタデータ) (2023-10-31T04:37:57Z) - Open Domain Question Answering over Virtual Documents: A Unified
Approach for Data and Text [62.489652395307914]
我々は、知識集約型アプリケーションのための構造化知識を符号化する手段として、Data-to-text法、すなわち、オープンドメイン質問応答(QA)を用いる。
具体的には、ウィキペディアとウィキソースの3つのテーブルを付加知識源として使用する、データとテキスト上でのオープンドメインQAのための冗長化-レトリバー・リーダー・フレームワークを提案する。
UDT-QA(Unified Data and Text QA)は,知識インデックスの拡大を効果的に活用できることを示す。
論文 参考訳(メタデータ) (2021-10-16T00:11:21Z) - External Knowledge Augmented Text Visual Question Answering [0.6445605125467573]
本稿では,視覚言語理解タスクのための標準マルチモーダルトランスフォーマー上で知識を抽出,フィルタリング,エンコードするフレームワークを提案する。
2つの公開データセット上で、最先端のデータセットに匹敵する結果を生成する。
論文 参考訳(メタデータ) (2021-08-22T13:21:58Z) - Contextualized Knowledge-aware Attentive Neural Network: Enhancing
Answer Selection with Knowledge [77.77684299758494]
ナレッジグラフ(KG)による外部知識による回答選択モデル向上のアプローチを幅広く検討しています。
まず、KGの外部知識とテキスト情報との密接な相互作用を考慮し、QA文表現を学習するコンテキスト知識相互作用学習フレームワークであるナレッジアウェアニューラルネットワーク(KNN)を紹介します。
KG情報の多様性と複雑性に対処するために, カスタマイズされたグラフ畳み込みネットワーク (GCN) を介して構造情報を用いた知識表現学習を改善し, コンテキストベースおよび知識ベースの文表現を総合的に学習する コンテキスト型知識認識型アテンシブニューラルネットワーク (CKANN) を提案する。
論文 参考訳(メタデータ) (2021-04-12T05:52:20Z) - Open-Retrieval Conversational Machine Reading [80.13988353794586]
会話機械読解では、システムは自然言語規則を解釈し、ハイレベルな質問に答え、フォローアップの明確化を問う必要がある。
既存の作業では、ルールテキストがユーザ毎の質問に対して提供されると仮定し、実際のシナリオにおいて必須の検索ステップを無視する。
本研究では,対話型機械読解のオープンリトリーバル設定を提案し,検討する。
論文 参考訳(メタデータ) (2021-02-17T08:55:01Z) - Inquisitive Question Generation for High Level Text Comprehension [60.21497846332531]
InQUISITIVEは、文書を読みながら19K質問を抽出するデータセットである。
我々は,読者が情報を求めるための実践的な戦略に携わることを示す。
我々は, GPT-2に基づく質問生成モデルを評価し, 妥当な質問を生成することができることを示す。
論文 参考訳(メタデータ) (2020-10-04T19:03:39Z) - Syn-QG: Syntactic and Shallow Semantic Rules for Question Generation [49.671882751569534]
我々は、宣言文を質問応答対に変換する透明な統語規則であるSynQGを開発した。
PropBankの引数記述とVerbNet状態述語を利用して、浅いセマンティックコンテンツを組み込む。
文法的不正確な質問を排除し,構文の流布性を改善するために,これらの構文規則のアウトプットを逆翻訳する。
論文 参考訳(メタデータ) (2020-04-18T19:57:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。