論文の概要: Evaluating and Modeling Attribution for Cross-Lingual Question Answering
- arxiv url: http://arxiv.org/abs/2305.14332v2
- Date: Wed, 15 Nov 2023 17:15:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-16 20:24:08.771071
- Title: Evaluating and Modeling Attribution for Cross-Lingual Question Answering
- Title(参考訳): 言語横断質問応答の評価とモデル化
- Authors: Benjamin Muller, John Wieting, Jonathan H. Clark, Tom Kwiatkowski,
Sebastian Ruder, Livio Baldini Soares, Roee Aharoni, Jonathan Herzig, Xinyi
Wang
- Abstract要約: この研究は、言語間質問応答の属性を初めて研究したものである。
我々は、5つの言語でデータを収集し、最先端の言語間QAシステムの属性レベルを評価する。
回答のかなりの部分は、検索されたどのパスにも帰属しないことがわかった。
- 参考スコア(独自算出の注目度): 80.4807682093432
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Trustworthy answer content is abundant in many high-resource languages and is
instantly accessible through question answering systems, yet this content can
be hard to access for those that do not speak these languages. The leap forward
in cross-lingual modeling quality offered by generative language models offers
much promise, yet their raw generations often fall short in factuality. To
improve trustworthiness in these systems, a promising direction is to attribute
the answer to a retrieved source, possibly in a content-rich language different
from the query. Our work is the first to study attribution for cross-lingual
question answering. First, we collect data in 5 languages to assess the
attribution level of a state-of-the-art cross-lingual QA system. To our
surprise, we find that a substantial portion of the answers is not attributable
to any retrieved passages (up to 50% of answers exactly matching a gold
reference) despite the system being able to attend directly to the retrieved
text. Second, to address this poor attribution level, we experiment with a wide
range of attribution detection techniques. We find that Natural Language
Inference models and PaLM 2 fine-tuned on a very small amount of attribution
data can accurately detect attribution. Based on these models, we improve the
attribution level of a cross-lingual question-answering system. Overall, we
show that current academic generative cross-lingual QA systems have substantial
shortcomings in attribution and we build tooling to mitigate these issues.
- Abstract(参考訳): 信頼できる回答コンテンツは多くの高ソース言語で豊富であり、質問応答システムを通じて即座にアクセスできるが、これらの言語を話さない人にとってはアクセスが困難である。
生成言語モデルが提供する言語間のモデリング品質の飛躍は、多くの可能性をもたらすが、それらの生の世代は事実に乏しい。
これらのシステムの信頼性を向上させるために、期待できる方向は、答えを検索されたソース、おそらくクエリとは異なるコンテンツ豊富な言語に属性付けることである。
私たちの研究は、言語間質問応答の属性を初めて研究しました。
まず、5つの言語でデータを収集し、最先端の言語間QAシステムの属性レベルを評価する。
驚いたことに、システムは検索されたテキストに直接出席できるにもかかわらず、回答のかなりの部分が検索された文(金の参照と正確に一致する回答の最大50%)に寄与しないことがわかった。
第2に,この不適切な帰属レベルに対処するために,幅広い帰属検出手法を実験した。
ごく少量の属性データに基づいて微調整された自然言語推論モデルと PaLM 2 が,属性を正確に検出できることがわかった。
これらのモデルに基づき,言語間質問応答システムの帰属レベルを向上させる。
全体として、現在の学術的生成型言語間QAシステムには、属性に重大な欠点があることを示し、これらの問題を緩和するためのツールを構築している。
関連論文リスト
- SEMQA: Semi-Extractive Multi-Source Question Answering [94.04430035121136]
本稿では,複数ソースを半抽出的に要約することで,複数の質問に答える新しいQAタスクを提案する。
この種の最初のデータセットであるQuoteSumを作成し、自然および生成された質問に対する人間による半抽出的な回答を提示する。
論文 参考訳(メタデータ) (2023-11-08T18:46:32Z) - PAXQA: Generating Cross-lingual Question Answering Examples at Training
Scale [53.92008514395125]
PAXQA(クロスリンガル(x)QAのアノテーションの計画)は、クロスリンガルQAを2段階に分解する。
本稿では、並列ビットから制約されたエンティティを抽出する語彙制約機械翻訳の新たな利用法を提案する。
これらのデータセットに基づいて微調整されたモデルは、複数の抽出されたQAデータセット上で、先行合成データ生成モデルより優れていることを示す。
論文 参考訳(メタデータ) (2023-04-24T15:46:26Z) - Bridging the Language Gap: Knowledge Injected Multilingual Question
Answering [19.768708263635176]
本稿では,異なる言語を理解するモデルの能力を高めるために,一般化された言語間移動フレームワークを提案する。
実世界のデータセット MLQA に対する実験結果から,提案手法は大きなマージンで性能を向上できることが示された。
論文 参考訳(メタデータ) (2023-04-06T15:41:25Z) - ZusammenQA: Data Augmentation with Specialized Models for Cross-lingual
Open-retrieval Question Answering System [16.89747171947662]
本稿では,言語横断的オープン-検索質問応答(COQA)におけるMIA共有タスクを提案する。
この挑戦的なシナリオでは、入力された質問に対して、システムは多言語プールから証拠文書を収集し、その質問の言語で回答を生成する必要がある。
データ拡張(Data Augmentation)、パッセージ検索(Passage Retrieval)、Answer Generation(Answer Generation)の3つの主要コンポーネントに対して、異なるモデル変種を組み合わせたいくつかのアプローチを考案した。
論文 参考訳(メタデータ) (2022-05-30T10:31:08Z) - MuCoT: Multilingual Contrastive Training for Question-Answering in
Low-resource Languages [4.433842217026879]
マルチ言語BERTベースのモデル(mBERT)は、高ソース言語から低リソース言語への知識伝達にしばしば使用される。
対象言語のQAサンプルを他の言語に翻訳し,mBERTベースのQAモデルを微調整するために拡張データを使用する。
Google ChAIIデータセットの実験では、mBERTモデルを同じ言語ファミリーからの翻訳で微調整することで、質問応答のパフォーマンスが向上することが示された。
論文 参考訳(メタデータ) (2022-04-12T13:52:54Z) - Cross-Lingual GenQA: A Language-Agnostic Generative Question Answering
Approach for Open-Domain Question Answering [76.99585451345702]
オープン検索生成質問回答(GenQA)は、高品質で自然な回答を英語で提供することが証明されている。
我々は多言語環境に対するGenQAアプローチの最初の一般化について述べる。
論文 参考訳(メタデータ) (2021-10-14T04:36:29Z) - Multilingual Answer Sentence Reranking via Automatically Translated Data [97.98885151955467]
本稿では,現代の質問応答システム(QA)のコアコンポーネントである,多言語回答文選択(AS2)モデルの設計について述べる。
主なアイデアは、あるリソースリッチ言語(英語など)から、他の言語へのデータ転送であり、リソースの観点からはよりリッチである。
論文 参考訳(メタデータ) (2021-02-20T03:52:08Z) - XCOPA: A Multilingual Dataset for Causal Commonsense Reasoning [68.57658225995966]
XCOPA (Cross-lingual Choice of Plausible Alternatives) は11言語における因果コモンセンス推論のための多言語データセットである。
提案手法は,翻訳に基づく転送と比較して,現在の手法の性能が低下していることを明らかにする。
論文 参考訳(メタデータ) (2020-05-01T12:22:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。