論文の概要: LittiChoQA: Literary Texts in Indic Languages Chosen for Question Answering
- arxiv url: http://arxiv.org/abs/2601.03025v1
- Date: Tue, 06 Jan 2026 13:59:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-07 17:02:12.96117
- Title: LittiChoQA: Literary Texts in Indic Languages Chosen for Question Answering
- Title(参考訳): LittiChoQA: 質問応答のための辞書テキスト
- Authors: Aarya Khandelwal, Ritwik Mishra, Rajiv Ratn Shah,
- Abstract要約: インドのガンジケート平野で話されている多くの言語を網羅する,これまでで最大の文学的QAデータセットであるLittiChoQAを紹介した。
データセットは、ファクトイドと非ファクトイドの問合せのバランスのとれた270K以上の問合せペアで構成されている。
- 参考スコア(独自算出の注目度): 33.849676909667
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Long-context question answering (QA) over literary texts poses significant challenges for modern large language models, particularly in low-resource languages. We address the scarcity of long-context QA resources for Indic languages by introducing LittiChoQA, the largest literary QA dataset to date covering many languages spoken in the Gangetic plains of India. The dataset comprises over 270K automatically generated question-answer pairs with a balanced distribution of factoid and non-factoid questions, generated from naturally authored literary texts collected from the open web. We evaluate multiple multilingual LLMs on non-factoid, abstractive QA, under both full-context and context-shortened settings. Results demonstrate a clear trade-off between performance and efficiency: full-context fine-tuning yields the highest token-level and semantic-level scores, while context shortening substantially improves throughput. Among the evaluated models, Krutrim-2 achieves the strongest performance, obtaining a semantic score of 76.1 with full context. While, in shortened context settings it scores 74.9 with answer paragraph selection and 71.4 with vector-based retrieval. Qualitative evaluations further corroborate these findings.
- Abstract(参考訳): 文学的テキストに対する長文質問応答(QA)は、特に低リソース言語において、現代の大規模言語モデルにとって大きな課題となっている。
Indic言語における長文QAリソースの不足に対処するため,インドのガンゲーティック平野で話されている多くの言語を対象とした,これまでで最大の文献QAデータセットであるLittiChoQAを導入した。
このデータセットは、オープンウェブから収集された自然の著作物から生成されるファクトイドと非ファクトイドの問合せのバランスの取れた分布を持つ270K以上の問合せ対からなる。
非ファクト的,抽象的 QA で複数の多言語 LLM をフルコンテキストとコンテキストショートした設定で評価する。
フルコンテキストの微調整ではトークンレベルとセマンティックレベルのスコアが最も高く、コンテキスト短縮ではスループットが大幅に向上する。
評価されたモデルの中で、Krutrim-2は最強のパフォーマンスを達成し、完全なコンテキストで76.1のセマンティックスコアを得る。
短いコンテキスト設定では74.9、回答文の選択で71.4、ベクトルベースの検索で71.4となる。
質的な評価はこれらの発見をさらに裏付ける。
関連論文リスト
- Long-context Non-factoid Question Answering in Indic Languages [39.66936316245065]
質問回答タスクは、与えられたコンテキストから回答を抽出する。
長期のコンテキストは、自己認識機構の複雑さのために課題を引き起こす。
Indic言語におけるQA性能向上のための文脈ショートニング手法について検討した。
論文 参考訳(メタデータ) (2025-04-18T10:43:21Z) - PromptRefine: Enhancing Few-Shot Performance on Low-Resource Indic Languages with Example Selection from Related Example Banks [57.86928556668849]
大規模言語モデル(LLM)は、近ごろ、コンテキスト内学習(ICL)を通じて、印象的な数ショットの学習能力を実証した。
ICLのパフォーマンスは、数発のデモの選択に大きく依存しており、最も最適な例の選択は永続的な研究課題である。
本稿では,低リソースのIndic言語におけるICLの性能向上を目的とした,新しい代替最小化手法であるPromptRefineを提案する。
論文 参考訳(メタデータ) (2024-12-07T17:51:31Z) - INDIC QA BENCHMARK: A Multilingual Benchmark to Evaluate Question Answering capability of LLMs for Indic Languages [25.402797722575805]
インデックスQAベンチマーク(Indic QA Benchmark)は、インドの主要言語11言語を対象にした、文脈に基づく質問応答のためのデータセットである。
評価の結果,学習データに強い英語バイアスがあるため,低資源言語では弱い性能を示した。
また、入力を英語に翻訳して処理し、その結果をソース言語に変換して出力するTranslate Testパラダイムについても検討した。
論文 参考訳(メタデータ) (2024-07-18T13:57:16Z) - CaLMQA: Exploring culturally specific long-form question answering across 23 languages [58.18984409715615]
CaLMQAは、文化的に異なる23言語にわたる51.7Kの質問のデータセットである。
我々は,LLM生成長文回答の事実性,関連性,表面品質を評価する。
論文 参考訳(メタデータ) (2024-06-25T17:45:26Z) - From Multiple-Choice to Extractive QA: A Case Study for English and Arabic [51.13706104333848]
既存の多言語データセットを新しいNLPタスクに再利用する可能性について検討する。
本稿では,英語および現代標準アラビア語に対するアノテーションガイドラインと並列EQAデータセットを提案する。
我々は、残りの120のBELEBELE言語変種に対して、他の人が我々のアプローチを適用するのを助けることを目指しており、その多くがリソース不足と見なされている。
論文 参考訳(メタデータ) (2024-04-26T11:46:05Z) - SEMQA: Semi-Extractive Multi-Source Question Answering [94.04430035121136]
本稿では,複数ソースを半抽出的に要約することで,複数の質問に答える新しいQAタスクを提案する。
この種の最初のデータセットであるQuoteSumを作成し、自然および生成された質問に対する人間による半抽出的な回答を提示する。
論文 参考訳(メタデータ) (2023-11-08T18:46:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。