論文の概要: Indirect Question Answering in English, German and Bavarian: A Challenging Task for High- and Low-Resource Languages Alike
- arxiv url: http://arxiv.org/abs/2603.15130v1
- Date: Mon, 16 Mar 2026 11:24:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 18:28:58.097668
- Title: Indirect Question Answering in English, German and Bavarian: A Challenging Task for High- and Low-Resource Languages Alike
- Title(参考訳): 英語・ドイツ語・バイエルン語における間接的質問回答:高次・低次言語への挑戦課題
- Authors: Miriam Winkler, Verena Blaschke, Barbara Plank,
- Abstract要約: Indirect Question Answering (IQA) は、間接的な回答の極性を分類することを目的としている。
我々は、英語、標準ドイツ語、バイエルン語の両方をカバーする様々な品質のIQAのための2つの多言語コーパスを提示する。
IQAのパフォーマンスは、高(英語、ドイツ語)および低リソース言語(バヴァリア語)では貧弱であることがわかった。
- 参考スコア(独自算出の注目度): 36.91800117379075
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Indirectness is a common feature of daily communication, yet is underexplored in NLP research for both low-resource as well as high-resource languages. Indirect Question Answering (IQA) aims at classifying the polarity of indirect answers. In this paper, we present two multilingual corpora for IQA of varying quality that both cover English, Standard German and Bavarian, a German dialect without standard orthography: InQA+, a small high-quality evaluation dataset with hand-annotated labels, and GenIQA, a larger training dataset, that contains artificial data generated by GPT-4o-mini. We find that IQA is a pragmatically hard task that comes with various challenges, based on several experiment variations with multilingual transformer models (mBERT, XLM-R and mDeBERTa). We suggest and employ recommendations to tackle these challenges. Our results reveal low performance, even for English, and severe overfitting. We analyse various factors that influence these results, including label ambiguity, label set and dataset size. We find that the IQA performance is poor in high- (English, German) and low-resource languages (Bavarian) and that it is beneficial to have a large amount of training data. Further, GPT-4o-mini does not possess enough pragmatic understanding to generate high-quality IQA data in any of our tested languages.
- Abstract(参考訳): 間接性(Indirectness)は日常的なコミュニケーションの一般的な特徴であるが、低リソース言語と高リソース言語の両方を対象としたNLP研究では過小評価されている。
Indirect Question Answering (IQA) は、間接的な回答の極性を分類することを目的としている。
本稿では,標準正書法を持たないドイツ語の方言である英語,標準ドイツ語,バイエルン語の2つの異なる品質のIQA用多言語コーパスについて述べる。
IQA は多言語変換器モデル (mBERT, XLM-R, mDeBERTa) を用いた実験により, 様々な課題を伴う実用的難題であることがわかった。
これらの課題に対処するためのレコメンデーションを提案し、採用する。
結果から, 英語でも成績が悪く, 過度な過度なオーバーフィッティングがみられた。
ラベルのあいまいさ、ラベルセット、データセットサイズなど、これらの結果に影響を与えるさまざまな要因を分析します。
IQAの性能は、高言語(英語、ドイツ語)と低リソース言語(バヴァリア語)では貧弱であり、大量のトレーニングデータを持つことは有益である。
さらに、GPT-4o-miniは、テスト対象言語のいずれかで高品質なIQAデータを生成するのに十分な実用的理解を持っていない。
関連論文リスト
- Cross-lingual Transfer for Automatic Question Generation by Learning Interrogative Structures in Target Languages [6.635572580071933]
本稿では,モノリンガル,並列,ラベル付きデータを対象言語で必要とせずに動作可能な,単純かつ効率的なXLT-QG法を提案する。
提案手法は,GPT-3.5-turboに匹敵する性能を実現する。
論文 参考訳(メタデータ) (2024-10-04T07:29:35Z) - INDIC QA BENCHMARK: A Multilingual Benchmark to Evaluate Question Answering capability of LLMs for Indic Languages [25.402797722575805]
インデックスQAベンチマーク(Indic QA Benchmark)は、インドの主要言語11言語を対象にした、文脈に基づく質問応答のためのデータセットである。
評価の結果,学習データに強い英語バイアスがあるため,低資源言語では弱い性能を示した。
また、入力を英語に翻訳して処理し、その結果をソース言語に変換して出力するTranslate Testパラダイムについても検討した。
論文 参考訳(メタデータ) (2024-07-18T13:57:16Z) - From Multiple-Choice to Extractive QA: A Case Study for English and Arabic [51.13706104333848]
既存の多言語データセットを新しいNLPタスクに再利用する可能性について検討する。
本稿では,英語および現代標準アラビア語に対するアノテーションガイドラインと並列EQAデータセットを提案する。
我々は、残りの120のBELEBELE言語変種に対して、他の人が我々のアプローチを適用するのを助けることを目指しており、その多くがリソース不足と見なされている。
論文 参考訳(メタデータ) (2024-04-26T11:46:05Z) - Evaluating and Modeling Attribution for Cross-Lingual Question Answering [80.4807682093432]
この研究は、言語間質問応答の属性を初めて研究したものである。
我々は、5つの言語でデータを収集し、最先端の言語間QAシステムの属性レベルを評価する。
回答のかなりの部分は、検索されたどのパスにも帰属しないことがわかった。
論文 参考訳(メタデータ) (2023-05-23T17:57:46Z) - QAmeleon: Multilingual QA with Only 5 Examples [71.80611036543633]
数ショットの学習環境下で事前学習した言語モデルを利用する方法を示す。
我々のアプローチであるQAmeleonは、PLMを使用して、QAモデルをトレーニングした多言語データを自動的に生成する。
言語毎に5つの例しか持たないデータ合成のためにPLMをプロンプトチューニングすることで、翻訳ベースのベースラインよりも精度が向上する。
論文 参考訳(メタデータ) (2022-11-15T16:14:39Z) - MuCoT: Multilingual Contrastive Training for Question-Answering in
Low-resource Languages [4.433842217026879]
マルチ言語BERTベースのモデル(mBERT)は、高ソース言語から低リソース言語への知識伝達にしばしば使用される。
対象言語のQAサンプルを他の言語に翻訳し,mBERTベースのQAモデルを微調整するために拡張データを使用する。
Google ChAIIデータセットの実験では、mBERTモデルを同じ言語ファミリーからの翻訳で微調整することで、質問応答のパフォーマンスが向上することが示された。
論文 参考訳(メタデータ) (2022-04-12T13:52:54Z) - Multilingual Answer Sentence Reranking via Automatically Translated Data [97.98885151955467]
本稿では,現代の質問応答システム(QA)のコアコンポーネントである,多言語回答文選択(AS2)モデルの設計について述べる。
主なアイデアは、あるリソースリッチ言語(英語など)から、他の言語へのデータ転送であり、リソースの観点からはよりリッチである。
論文 参考訳(メタデータ) (2021-02-20T03:52:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。