論文の概要: Zero-Shot Cross-Lingual Reranking with Large Language Models for
Low-Resource Languages
- arxiv url: http://arxiv.org/abs/2312.16159v1
- Date: Tue, 26 Dec 2023 18:38:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-27 14:35:02.426367
- Title: Zero-Shot Cross-Lingual Reranking with Large Language Models for
Low-Resource Languages
- Title(参考訳): 低リソース言語のための大規模言語モデルによるゼロショット言語間リランキング
- Authors: Mofetoluwa Adeyemi, Akintunde Oladipo, Ronak Pradeep, Jimmy Lin
- Abstract要約: アフリカ語における言語間情報検索システムにおいて,大規模言語モデル (LLM) がリランカーとしてどのように機能するかを検討する。
私たちの実装は、英語と4つのアフリカの言語(ハウサ語、ソマリ語、スワヒリ語、ヨルバ語)を対象としています。
我々は、英語のクェリとアフリカの言葉の文節による言語横断的な格付けについて検討する。
- 参考スコア(独自算出の注目度): 51.301942056881146
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) have shown impressive zero-shot capabilities in
various document reranking tasks. Despite their successful implementations,
there is still a gap in existing literature on their effectiveness in
low-resource languages. To address this gap, we investigate how LLMs function
as rerankers in cross-lingual information retrieval (CLIR) systems for African
languages. Our implementation covers English and four African languages (Hausa,
Somali, Swahili, and Yoruba) and we examine cross-lingual reranking with
queries in English and passages in the African languages. Additionally, we
analyze and compare the effectiveness of monolingual reranking using both query
and document translations. We also evaluate the effectiveness of LLMs when
leveraging their own generated translations. To get a grasp of the
effectiveness of multiple LLMs, our study focuses on the proprietary models
RankGPT-4 and RankGPT-3.5, along with the open-source model, RankZephyr. While
reranking remains most effective in English, our results reveal that
cross-lingual reranking may be competitive with reranking in African languages
depending on the multilingual capability of the LLM.
- Abstract(参考訳): 大規模言語モデル(LLM)は、様々な文書再ランクタスクにおいて印象的なゼロショット機能を示している。
実装は成功したが、低リソース言語での有効性について、既存の文献にはまだギャップがある。
このギャップに対処するために,アフリカ語における言語間情報検索(CLIR)システムにおいて,LLMがリランカーとしてどのように機能するかを検討する。
我々の実装は、英語と4つのアフリカの言語(ハウサ語、ソマリ語、スワヒリ語、ヨルバ語)をカバーする。
さらに,問合せと文書翻訳の両方を用いて単言語リランキングの有効性を分析し,比較した。
また,LLMが生成した翻訳に有効であることを示す。
そこで本研究では,オープンソースモデルである RankZephyr とともに,RanGPT-4 と RankGPT-3.5 のプロプライエタリモデルに焦点を当てた。
この結果から,LLMの多言語能力によらず,言語間再位はアフリカ語の再位と競合する可能性が示唆された。
関連論文リスト
- Think Carefully and Check Again! Meta-Generation Unlocking LLMs for Low-Resource Cross-Lingual Summarization [108.6908427615402]
CLS(Cross-lingual summarization)は、異なるターゲット言語でソーステキストの要約を生成することを目的としている。
現在、インストラクションチューニング付き大規模言語モデル (LLM) は様々な英語タスクで優れている。
近年の研究では、LCSタスクにおけるLCMの性能は、わずかな設定でも満足できないことが示されている。
論文 参考訳(メタデータ) (2024-10-26T00:39:44Z) - Better to Ask in English: Evaluation of Large Language Models on English, Low-resource and Cross-Lingual Settings [12.507989493130175]
GPT-4, Llama 2 および Gemini は, 東南アジアの他の低リソース言語と比較して, 英語での有効性が評価されている。
GPT-4はLlama 2とGeminiを5つのプロンプト設定と全言語で上回ったことを示唆している。
論文 参考訳(メタデータ) (2024-10-17T02:12:30Z) - Faux Polyglot: A Study on Information Disparity in Multilingual Large Language Models [7.615938028813914]
Retrieval Augmented Generation (RAG)により、Large Language Models (LLM) は情報検索において重要な役割を担っている。
RAGに基づく情報検索において,LLMの言語的嗜好について検討した。
その結果,LLMは問合せ言語と同一言語における情報に対して,情報検索と回答生成の両方において,体系的な偏りを示した。
論文 参考訳(メタデータ) (2024-07-07T21:26:36Z) - Crosslingual Capabilities and Knowledge Barriers in Multilingual Large Language Models [62.91524967852552]
大規模言語モデル(LLM)は、多言語コーパスの事前訓練のため、一般的に多言語である。
しかし、これらのモデルは言語間で対応する概念を関連付けることができ、効果的にクロスランガルなのでしょうか?
本研究は,言語横断的課題に関する6つの技術 LLM の評価を行った。
論文 参考訳(メタデータ) (2024-06-23T15:15:17Z) - Getting More from Less: Large Language Models are Good Spontaneous Multilingual Learners [67.85635044939836]
大きな言語モデル(LLM)は印象的な言語機能を示している。
本研究では,LLMの自然多言語アライメント改善について検討する。
質問翻訳データ(すなわち注釈付き回答なし)に基づいて学習したLLMは、英語と幅広い言語との整合を促進できることがわかった。
論文 参考訳(メタデータ) (2024-05-22T16:46:19Z) - Quantifying Multilingual Performance of Large Language Models Across Languages [48.40607157158246]
大規模言語モデル(LLM)は、英語、ドイツ語、フランス語のような高リソース言語で、低リソース言語の能力は依然として不十分である。
内部表現を用いたLLM性能に基づいて,言語をベンチマークし,ランク付けするための固有測度であるLanguage Rankerを提案する。
分析の結果,高リソース言語は英語との類似度が高く,性能が優れ,低リソース言語は類似度が低いことがわかった。
論文 参考訳(メタデータ) (2024-04-17T16:53:16Z) - Enhancing Multilingual Capabilities of Large Language Models through
Self-Distillation from Resource-Rich Languages [60.162717568496355]
大規模言語モデル(LLM)は多言語コーパスで事前訓練されている。
彼らのパフォーマンスは、いくつかのリソース豊富な言語と比較して、ほとんどの言語でまだ遅れています。
論文 参考訳(メタデータ) (2024-02-19T15:07:32Z) - Democratizing LLMs for Low-Resource Languages by Leveraging their English Dominant Abilities with Linguistically-Diverse Prompts [75.33019401706188]
大規模言語モデル(LLM)は、少数の例を単純に観察することで、効果的にタスクを実行することが知られている。
我々は,LLMが任意の言語から英語に翻訳するよう促すために,多種多様な高ソース言語から合成例を組み立てることを提案する。
我々の教師なしプロンプト法は、英語と13のIndic言語と21のアフリカ低リソース言語間の翻訳において、異なる大きさのLLMにおける教師付き少ショット学習と同等に機能する。
論文 参考訳(メタデータ) (2023-06-20T08:27:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。