論文の概要: ConveRT, an Application to FAQ Answering
- arxiv url: http://arxiv.org/abs/2108.00719v1
- Date: Mon, 2 Aug 2021 08:44:22 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-03 22:53:21.229023
- Title: ConveRT, an Application to FAQ Answering
- Title(参考訳): ConveRT - FAQアンサーリングへの応用
- Authors: Maxime De Bruyn, Ehsan Lotfi, Jeska Buhmann, Walter Daelemans
- Abstract要約: 英語のSOTA会話エージェントであるConveRTは、トレーニングデータが少ない他の言語に適応している。
低データ体制と高データ体制において、オープンソースの代替手段よりも優れた性能を示す。
- 参考スコア(独自算出の注目度): 9.625301186732598
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Knowledgeable FAQ chatbots are a valuable resource to any organization.
Unlike traditional call centers or FAQ web pages, they provide instant
responses and are always available. Our experience running a COVID19 chatbot
revealed the lack of resources available for FAQ answering in non-English
languages. While powerful and efficient retrieval-based models exist for
English, it is rarely the case for other languages which do not have the same
amount of training data available. In this work, we propose a novel pretaining
procedure to adapt ConveRT, an English SOTA conversational agent, to other
languages with less training data available. We apply it for the first time to
the task of Dutch FAQ answering related to the COVID19 vaccine. We show it
performs better than an open-source alternative in a low-data regime and
high-data regime.
- Abstract(参考訳): 知識豊富なfaqチャットボットは、あらゆる組織にとって貴重なリソースです。
従来のコールセンタやFAQ Webページとは異なり、インスタントレスポンスを提供し、常に利用できる。
COVID19チャットボットを運用した経験から、英語以外の言語でFAQに答えるリソースが不足していることが分かりました。
英語には強力で効率的な検索ベースモデルが存在するが、同じ量のトレーニングデータを持っていない他の言語ではまれである。
本研究では、英語のSOTA会話エージェントであるConveRTを、トレーニングデータが少ない他の言語に適応させる、新しい保持手順を提案する。
これを初めて、オランダのfaqがcovid-19ワクチンに関する質問に答えるタスクに適用しました。
低データ体制と高データ体制におけるオープンソースの代替手段よりも優れた性能を示す。
関連論文リスト
- Can a Multichoice Dataset be Repurposed for Extractive Question Answering? [52.28197971066953]
我々は,Multiple-choice Question answering (MCQA)のために設計されたBandarkar et al.(Bandarkar et al., 2023)を再利用した。
本稿では,英語と現代標準アラビア語(MSA)のためのガイドラインと並列EQAデータセットを提案する。
私たちの目標は、ベレベレにおける120以上の言語変異に対して、他者が私たちのアプローチを適応できるようにすることです。
論文 参考訳(メタデータ) (2024-04-26T11:46:05Z) - Language Guided Visual Question Answering: Elevate Your Multimodal
Language Model Using Knowledge-Enriched Prompts [54.072432123447854]
視覚的質問応答(VQA)は、画像に関する質問に答えるタスクである。
疑問に答えるには、常識知識、世界知識、イメージに存在しないアイデアや概念についての推論が必要である。
本稿では,論理文や画像キャプション,シーングラフなどの形式で言語指導(LG)を用いて,より正確に質問に答えるフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-31T03:54:11Z) - MuCoT: Multilingual Contrastive Training for Question-Answering in
Low-resource Languages [4.433842217026879]
マルチ言語BERTベースのモデル(mBERT)は、高ソース言語から低リソース言語への知識伝達にしばしば使用される。
対象言語のQAサンプルを他の言語に翻訳し,mBERTベースのQAモデルを微調整するために拡張データを使用する。
Google ChAIIデータセットの実験では、mBERTモデルを同じ言語ファミリーからの翻訳で微調整することで、質問応答のパフォーマンスが向上することが示された。
論文 参考訳(メタデータ) (2022-04-12T13:52:54Z) - Towards Best Practices for Training Multilingual Dense Retrieval Models [54.91016739123398]
我々は,このような設計を用いて,多種多様言語における単言語検索の課題に焦点をあてる。
本研究は多言語高密度検索モデルのトレーニングのための「ベストプラクティス」ガイドとして組織されている。
論文 参考訳(メタデータ) (2022-04-05T17:12:53Z) - Few-Shot Bot: Prompt-Based Learning for Dialogue Systems [58.27337673451943]
ごく少数の例を使って会話を学ぶことは、会話型AIにおける大きな課題である。
現在の最良の会話モデルは、良いチャットシャッター(例:BlenderBot)またはゴール指向システム(例:MinTL)である。
グラデーションベースの微調整を必要とせず、学習の唯一の源としていくつかの例を用いるプロンプトベースの数ショット学習を提案する。
論文 参考訳(メタデータ) (2021-10-15T14:36:45Z) - One Question Answering Model for Many Languages with Cross-lingual Dense
Passage Retrieval [39.061900747689094]
CORAはクロスランガルなオープン・レトリーバル・アンサー・ジェネレーション・モデルである。
言語固有の注釈付きデータや知識ソースが利用できない場合でも、多くの言語で質問に答えることができる。
論文 参考訳(メタデータ) (2021-07-26T06:02:54Z) - A Multilingual African Embedding for FAQ Chatbots [0.0]
英語、フランス語、アラビア語、チュニジア語、igbo、yorub'a、hausaは言語や方言として使われている。
本稿では,質問応答タスクのためのアフリカ方言に適した改良されたStarSpace埋め込みについて述べる。
論文 参考訳(メタデータ) (2021-03-16T16:36:40Z) - Multilingual Answer Sentence Reranking via Automatically Translated Data [97.98885151955467]
本稿では,現代の質問応答システム(QA)のコアコンポーネントである,多言語回答文選択(AS2)モデルの設計について述べる。
主なアイデアは、あるリソースリッチ言語(英語など)から、他の言語へのデータ転送であり、リソースの観点からはよりリッチである。
論文 参考訳(メタデータ) (2021-02-20T03:52:08Z) - Pivot Through English: Reliably Answering Multilingual Questions without
Document Retrieval [4.4973334555746]
低リソース言語(LRL)における解答に対する既存の解答法は、英語に大きく遅れた。
文書検索を回避し、英語から低リソース言語への知識の確実に転送する、より現実的なタスクセットアップを利用可能なリソースに策定します。
このタスク設定内では、リランク付き英語学習セットに対する意味的類似性検索に類似した、Reranked Maximal Internal Product Search (RM-MIPS)を提案する。
論文 参考訳(メタデータ) (2020-12-28T04:38:45Z) - XOR QA: Cross-lingual Open-Retrieval Question Answering [75.20578121267411]
この作業は、言語横断的な設定に応答するオープン検索の質問を拡張します。
我々は,同じ回答を欠いた質問に基づいて,大規模なデータセットを構築した。
論文 参考訳(メタデータ) (2020-10-22T16:47:17Z) - A Qualitative Evaluation of Language Models on Automatic
Question-Answering for COVID-19 [4.676651062800037]
新型コロナウイルスは740万人以上の感染者と41万8000人以上の死者を出した。
オンラインコミュニティ、フォーラム、ソーシャルメディアは、関連する質問や回答を検索する潜在的な場所を提供する。
本稿では,新型コロナウイルスに関する質問に自動回答する言語モデルを適用し,生成した回答を質的に評価する。
論文 参考訳(メタデータ) (2020-06-19T05:13:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。