論文の概要: Cross-Lingual GenQA: A Language-Agnostic Generative Question Answering
Approach for Open-Domain Question Answering
- arxiv url: http://arxiv.org/abs/2110.07150v1
- Date: Thu, 14 Oct 2021 04:36:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-15 14:00:55.850349
- Title: Cross-Lingual GenQA: A Language-Agnostic Generative Question Answering
Approach for Open-Domain Question Answering
- Title(参考訳): 言語非依存な生成的質問回答アプローチによるオープンドメイン質問回答
- Authors: Benjamin Muller, Luca Soldaini, Rik Koncel-Kedziorski, Eric Lind,
Alessandro Moschitti
- Abstract要約: オープン検索生成質問回答(GenQA)は、高品質で自然な回答を英語で提供することが証明されている。
我々は多言語環境に対するGenQAアプローチの最初の一般化について述べる。
- 参考スコア(独自算出の注目度): 76.99585451345702
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Open-Retrieval Generative Question Answering (GenQA) is proven to deliver
high-quality, natural-sounding answers in English. In this paper, we present
the first generalization of the GenQA approach for the multilingual
environment. To this end, we present the GenTyDiQA dataset, which extends the
TyDiQA evaluation data (Clark et al., 2020) with natural-sounding, well-formed
answers in Arabic, Bengali, English, Japanese, and Russian. For all these
languages, we show that a GenQA sequence-to-sequence-based model outperforms a
state-of-the-art Answer Sentence Selection model. We also show that a
multilingually-trained model competes with, and in some cases outperforms, its
monolingual counterparts. Finally, we show that our system can even compete
with strong baselines, even when fed with information from a variety of
languages. Essentially, our system is able to answer a question in any language
of our language set using information from many languages, making it the first
Language-Agnostic GenQA system.
- Abstract(参考訳): オープン検索生成質問回答(GenQA)は、高品質で自然な回答を英語で提供することが証明されている。
本稿では,多言語環境に対するGenQAアプローチの最初の一般化について述べる。
この目的のために, アラビア語, ベンガル語, 英語, 日本語, ロシア語で, 自然発声, 良好な解答が得られたTyDiQA評価データ(Clark et al., 2020)を拡張するGenTyDiQAデータセットを提案する。
これらすべての言語に対して、GenQAシークエンスに基づくモデルが最先端のAnswer文選択モデルより優れていることを示す。
また、多言語学習モデルが競合し、場合によってはモノリンガルモデルよりも優れていることを示す。
最後に,様々な言語からの情報を入力しても,システムは強力なベースラインと競合することを示す。
基本的に、我々のシステムは、多くの言語からの情報を用いて、我々の言語のどの言語でも質問に答えることができ、これが最初の言語に依存しないGenQAシステムとなる。
関連論文リスト
- Can a Multichoice Dataset be Repurposed for Extractive Question Answering? [52.28197971066953]
我々は,Multiple-choice Question answering (MCQA)のために設計されたBandarkar et al.(Bandarkar et al., 2023)を再利用した。
本稿では,英語と現代標準アラビア語(MSA)のためのガイドラインと並列EQAデータセットを提案する。
私たちの目標は、ベレベレにおける120以上の言語変異に対して、他者が私たちのアプローチを適応できるようにすることです。
論文 参考訳(メタデータ) (2024-04-26T11:46:05Z) - Evaluating and Modeling Attribution for Cross-Lingual Question Answering [80.4807682093432]
この研究は、言語間質問応答の属性を初めて研究したものである。
我々は、5つの言語でデータを収集し、最先端の言語間QAシステムの属性レベルを評価する。
回答のかなりの部分は、検索されたどのパスにも帰属しないことがわかった。
論文 参考訳(メタデータ) (2023-05-23T17:57:46Z) - PAXQA: Generating Cross-lingual Question Answering Examples at Training
Scale [53.92008514395125]
PAXQA(クロスリンガル(x)QAのアノテーションの計画)は、クロスリンガルQAを2段階に分解する。
本稿では、並列ビットから制約されたエンティティを抽出する語彙制約機械翻訳の新たな利用法を提案する。
これらのデータセットに基づいて微調整されたモデルは、複数の抽出されたQAデータセット上で、先行合成データ生成モデルより優れていることを示す。
論文 参考訳(メタデータ) (2023-04-24T15:46:26Z) - Bridging the Language Gap: Knowledge Injected Multilingual Question
Answering [19.768708263635176]
本稿では,異なる言語を理解するモデルの能力を高めるために,一般化された言語間移動フレームワークを提案する。
実世界のデータセット MLQA に対する実験結果から,提案手法は大きなマージンで性能を向上できることが示された。
論文 参考訳(メタデータ) (2023-04-06T15:41:25Z) - Generative Language Models for Paragraph-Level Question Generation [79.31199020420827]
強力な生成モデルが質問生成(QG)の最近の進歩につながっている
標準化された資源が存在しないため,QG研究の進歩を測定することは困難である。
我々はQGのベンチマークであるQG-Benchを導入し、既存のQGデータセットを標準QG設定に変換することで、既存の質問応答データセットを統一する。
論文 参考訳(メタデータ) (2022-10-08T10:24:39Z) - Investigating Post-pretraining Representation Alignment for
Cross-Lingual Question Answering [20.4489424966613]
言語間質問応答システムにおける多言語事前学習言語モデルの能力について検討する。
言語間の表現をポストホックな微調整のステップで明示的に整合させると、一般的にパフォーマンスが向上する。
論文 参考訳(メタデータ) (2021-09-24T15:32:45Z) - Multilingual Answer Sentence Reranking via Automatically Translated Data [97.98885151955467]
本稿では,現代の質問応答システム(QA)のコアコンポーネントである,多言語回答文選択(AS2)モデルの設計について述べる。
主なアイデアは、あるリソースリッチ言語(英語など)から、他の言語へのデータ転送であり、リソースの観点からはよりリッチである。
論文 参考訳(メタデータ) (2021-02-20T03:52:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。