論文の概要: Unified Question Answering in Slovene
- arxiv url: http://arxiv.org/abs/2211.09159v1
- Date: Wed, 16 Nov 2022 19:15:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-18 15:17:32.913089
- Title: Unified Question Answering in Slovene
- Title(参考訳): スロベニアにおける統一質問応答
- Authors: Katja Logar, Marko Robnik-\v{S}ikonja
- Abstract要約: 我々は、UnifiedQAと呼ばれる英語の質問応答アプローチを、よりリソースの少ないスロベニア語に適応させる。
我々の適応では、エンコーダ・デコーダ変換器SloT5とmT5モデルを用いて、4つの質問応答形式を処理している。
一般モデルは、少なくとも特殊なモデルと同様に、異なる形式の質問に答えることができることを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Question answering is one of the most challenging tasks in language
understanding. Most approaches are developed for English, while less-resourced
languages are much less researched. We adapt a successful English
question-answering approach, called UnifiedQA, to the less-resourced Slovene
language. Our adaptation uses the encoder-decoder transformer SloT5 and mT5
models to handle four question-answering formats: yes/no, multiple-choice,
abstractive, and extractive. We use existing Slovene adaptations of four
datasets, and machine translate the MCTest dataset. We show that a general
model can answer questions in different formats at least as well as specialized
models. The results are further improved using cross-lingual transfer from
English. While we produce state-of-the-art results for Slovene, the performance
still lags behind English.
- Abstract(参考訳): 質問応答は、言語理解において最も難しいタスクの1つです。
ほとんどのアプローチは英語向けに開発されているが、リソースの少ない言語はあまり研究されていない。
我々は、UnifiedQAと呼ばれる英語の質問応答アプローチを、少ないリソースのスロベニア語に適応させる。
我々はエンコーダ-デコーダトランスフォーマースロット5とmt5モデルを用いて4つの質問応答形式(yes/no、multiple-choice、abstractive、extractive)を処理する。
既存の4つのデータセットのSlovene適応を使用し、MCTestデータセットを機械翻訳します。
一般モデルは、少なくとも特殊なモデルと同様に、異なる形式の質問に答えることができることを示す。
結果は英語からの言語間移動によってさらに改善される。
スロベニアでは最先端の成果を上げていますが、パフォーマンスは英語に遅れています。
関連論文リスト
- Question Translation Training for Better Multilingual Reasoning [108.10066378240879]
大規模言語モデルは推論タスクにおいて魅力的なパフォーマンスを示すが、英語以外の言語ではより悪いパフォーマンスを示す傾向がある。
典型的な解決策は、命令データを興味のあるすべての言語に翻訳し、結果の多言語データをトレーニングすることである。
本稿では,X- English parallel question dataを微調整することで,推論する質問を英語に翻訳するモデルを訓練する。
論文 参考訳(メタデータ) (2024-01-15T16:39:10Z) - BUFFET: Benchmarking Large Language Models for Few-shot Cross-lingual
Transfer [81.5984433881309]
本稿では,54言語にまたがる15のタスクをシーケンス・ツー・シーケンス・フォーマットで統一するBUFFETを紹介する。
BUFFETは、数発の言語間移動のための厳密で公平な評価フレームワークを確立するように設計されている。
コンテクスト内言語間移動における改善の余地は極めて大きいことが判明した。
論文 参考訳(メタデータ) (2023-05-24T08:06:33Z) - QAmeleon: Multilingual QA with Only 5 Examples [71.80611036543633]
数ショットの学習環境下で事前学習した言語モデルを利用する方法を示す。
我々のアプローチであるQAmeleonは、PLMを使用して、QAモデルをトレーニングした多言語データを自動的に生成する。
言語毎に5つの例しか持たないデータ合成のためにPLMをプロンプトチューニングすることで、翻訳ベースのベースラインよりも精度が向上する。
論文 参考訳(メタデータ) (2022-11-15T16:14:39Z) - Crosslingual Generalization through Multitask Finetuning [80.8822603322471]
マルチタスク誘導ファインタニング(MTF)は、大きな言語モデルがゼロショット設定で新しいタスクに一般化するのに役立つことが示されている。
MTFを事前訓練された多言語BLOOMおよびmT5モデルファミリーに適用し、BLOOMZおよびmT0と呼ばれる微調整された変種を生成する。
英語のプロンプトを用いた英語タスクにおける多言語多言語モデルの微調整により、非英語言語へのタスク一般化が可能となる。
論文 参考訳(メタデータ) (2022-11-03T13:19:32Z) - MaXM: Towards Multilingual Visual Question Answering [28.268881608141303]
我々は,データとモデリングの両面で,多言語視覚質問応答(mVQA)に対するスケーラブルなソリューションを提案する。
まず,従来の質問や回答を直接収集する手法よりも,人間のアノテーションの取り組みをはるかに少なくする,mVQAデータ生成のための翻訳ベースのフレームワークを提案する。
次に,Crossmodal-3600データセットの多言語キャプションに適用し,テスト専用VQAベンチマークであるMaXMを作成するための効率的なアノテーションプロトコルを開発する。
論文 参考訳(メタデータ) (2022-09-12T16:53:37Z) - MuCoT: Multilingual Contrastive Training for Question-Answering in
Low-resource Languages [4.433842217026879]
マルチ言語BERTベースのモデル(mBERT)は、高ソース言語から低リソース言語への知識伝達にしばしば使用される。
対象言語のQAサンプルを他の言語に翻訳し,mBERTベースのQAモデルを微調整するために拡張データを使用する。
Google ChAIIデータセットの実験では、mBERTモデルを同じ言語ファミリーからの翻訳で微調整することで、質問応答のパフォーマンスが向上することが示された。
論文 参考訳(メタデータ) (2022-04-12T13:52:54Z) - Delving Deeper into Cross-lingual Visual Question Answering [115.16614806717341]
標準学習装置に簡単な修正を加えることで、モノリンガル英語のパフォーマンスへの移行ギャップを大幅に減らすことができることを示す。
多言語マルチモーダル変換器の多言語間VQAを多言語間VQAで解析する。
論文 参考訳(メタデータ) (2022-02-15T18:22:18Z) - Slovene SuperGLUE Benchmark: Translation and Evaluation [0.0]
我々は,スロヴェニアの機械と人間を併用したSuperGLUEベンチマークを提案する。
我々は、翻訳されたデータセットを、モノリンガル、クロスリンガル、マルチリンガルの3つのモードで評価する。
論文 参考訳(メタデータ) (2022-02-10T12:46:06Z) - Multilingual Answer Sentence Reranking via Automatically Translated Data [97.98885151955467]
本稿では,現代の質問応答システム(QA)のコアコンポーネントである,多言語回答文選択(AS2)モデルの設計について述べる。
主なアイデアは、あるリソースリッチ言語(英語など)から、他の言語へのデータ転送であり、リソースの観点からはよりリッチである。
論文 参考訳(メタデータ) (2021-02-20T03:52:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。