論文の概要: FLANS at SemEval-2026 Task 7: RAG with Open-Sourced Smaller LLMs for Everyday Knowledge Across Diverse Languages and Cultures
- arxiv url: http://arxiv.org/abs/2603.01910v1
- Date: Mon, 02 Mar 2026 14:27:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:56.907462
- Title: FLANS at SemEval-2026 Task 7: RAG with Open-Sourced Smaller LLMs for Everyday Knowledge Across Diverse Languages and Cultures
- Title(参考訳): FLANS at SemEval-2026 Task 7: RAG with Open-Sourced Smaller LLMs for Everyday Knowledge arounddiverse Languages and Cultures (英語)
- Authors: Liliia Bogdanova, Shiran Sun, Lifeng Han, Natalia Amat Lefort, Flor Miriam Plaza-del-Arco,
- Abstract要約: 本稿では,SemEval-2025 Task-7への参加について述べる。
トラック1:短解答質問(SAQ)とトラック2:複数解答質問(MCQ)の2つのサブタスクに参加した。
我々が使った方法は、オープンソースでより小さなLLM(OS-sLLMs)を用いた検索拡張生成(RAGs)である。
- 参考スコア(独自算出の注目度): 6.380360788240598
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This system paper describes our participation in the SemEval-2025 Task-7 ``Everyday Knowledge Across Diverse Languages and Cultures''. We attended two subtasks, i.e., Track 1: Short Answer Questions (SAQ), and Track 2: Multiple-Choice Questions (MCQ). The methods we used are retrieval augmented generation (RAGs) with open-sourced smaller LLMs (OS-sLLMs). To better adapt to this shared task, we created our own culturally aware knowledge base (CulKBs) by extracting Wikipedia content using keyword lists we prepared. We extracted both culturally-aware wiki-text and country-specific wiki-summary. In addition to the local CulKBs, we also have one system integrating live online search output via DuckDuckGo. Towards better privacy and sustainability, we aimed to deploy smaller LLMs (sLLMs) that are open-sourced on the Ollama platform. We share the prompts we developed using refinement techniques and report the learning curve of such prompts. The tested languages are English, Spanish, and Chinese for both tracks. Our resources and codes are shared via https://github.com/aaronlifenghan/FLANS-2026
- Abstract(参考訳): 本稿では,SemEval-2025 Task-7 `Everyday Knowledge Across Diverse Languages and Cultures'' への参加について述べる。
我々は,2つのサブタスク,すなわちトラック1:ショートアンサー質問 (SAQ) とトラック2:マルチパス質問 (MCQ) に出席した。
提案手法は,オープンソースの小型LCM (OS-sLLMs) を用いたRAGの検索である。
この共有タスクに適応するために、私たちは、準備したキーワードリストを使用してウィキペディアコンテンツを抽出し、文化的に認識された知識ベース(CulKBs)を作成しました。
文化的に認識されたウィキテキストと国固有のウィキサマリーを抽出した。
ローカルなCulKBに加えて、DuckDuckGoを介してオンライン検索出力を統合するシステムもある。
より優れたプライバシとサステナビリティを目指して、Ollamaプラットフォームでオープンソース化された小さなLCM(sLLM)をデプロイすることを目指していました。
我々は、改良技術を用いて開発したプロンプトを共有し、そのようなプロンプトの学習曲線を報告する。
テスト対象言語は英語、スペイン語、中国語である。
私たちのリソースとコードはhttps://github.com/aaronlifenghan/FLANS-2026で共有されます。
関連論文リスト
- Culture Cartography: Mapping the Landscape of Cultural Knowledge [50.502555170749694]
グローバルなユーザを安全かつ生産的に提供するためには、LLMには、事前トレーニング中に学ばない文化固有の知識が必要だ。
カルチャーカルトグラフィーと呼ばれる混合開始法を提案する。
ここで、LCMは、信頼度が低い回答を質問して注釈を初期化し、それ以前の知識とそのギャップの両方を明確にする。
これにより、人間の応答者がこれらのギャップを埋めて、直接編集することで、適切なトピックに向けてモデルを操ることが可能になる。
LLMが提案する質問に人間が答えるベースラインと比較すると、CultureExplorerはDeepSeek R1やGPT-4oのような主要なモデルが持つ知識をより効果的に生成することがわかった。
論文 参考訳(メタデータ) (2025-10-31T17:37:34Z) - MELLA: Bridging Linguistic Capability and Cultural Groundedness for Low-Resource Language MLLMs [24.075526141969625]
MLLM(Multimodal Large Language Models)は、高リソース言語において顕著な性能を示す。
しかし、その効果は低リソース言語の文脈において著しく低下する。
本稿では,各目標に合ったデータの収集をガイドするデュアルソース戦略を提案し,文化のためのネイティブなウェブアルトテキストと言語学のためのMLLM生成キャプションをソーシングする。
実験結果から,MELLAを微調整した後,MLLMバックボーン上の8言語に対して,汎用的な性能向上が得られた。
論文 参考訳(メタデータ) (2025-08-07T15:36:24Z) - Prompting is not Enough: Exploring Knowledge Integration and Controllable Generation [89.65955788873532]
オープンドメイン質問応答(OpenQA)は自然言語処理(NLP)の基盤である。
我々は,知識統合と制御可能生成を探求し,OpenQAの性能向上を目的としたGenKIという新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-26T08:18:33Z) - ECLeKTic: a Novel Challenge Set for Evaluation of Cross-Lingual Knowledge Transfer [40.3285891624575]
本稿では,言語間の知識伝達を評価する多言語クローズドブックQAデータセットであるECLeKTicを提案する。
われわれは12言語でWikipediaの記事の存在と欠落を利用して、ある言語で事前学習されているが、他の言語では利用できない可能性のある情報の断片を検出した。
現在のSOTAモデルは、知識が獲得された言語における質問に対する回答を予測できるとしても、言語間での知識の効果的な共有に苦慮していることを示す。
論文 参考訳(メタデータ) (2025-02-28T16:59:30Z) - CHAI for LLMs: Improving Code-Mixed Translation in Large Language Models through Reinforcement Learning with AI Feedback [11.223762031003671]
大規模言語モデル(LLM)は、様々なNLPタスクにまたがる顕著な機能を示しているが、コード混在(またはコード切替)言語理解に苦慮している。
本稿では,多言語LLMのコード混合言語処理能力を向上させるための新しいフレームワークであるCHAIを提案する。
解析の結果,CHAI を用いた LLM は,コード混在翻訳タスクにおいて,最先端のオープンソース LLM よりも25.66% 向上していることがわかった。
論文 参考訳(メタデータ) (2024-11-13T22:56:00Z) - Think Carefully and Check Again! Meta-Generation Unlocking LLMs for Low-Resource Cross-Lingual Summarization [108.6908427615402]
CLS(Cross-lingual summarization)は、異なるターゲット言語でソーステキストの要約を生成することを目的としている。
現在、インストラクションチューニング付き大規模言語モデル (LLM) は様々な英語タスクで優れている。
近年の研究では、LCSタスクにおけるLCMの性能は、わずかな設定でも満足できないことが示されている。
論文 参考訳(メタデータ) (2024-10-26T00:39:44Z) - BLEnD: A Benchmark for LLMs on Everyday Knowledge in Diverse Cultures and Languages [39.17279399722437]
大型言語モデル(LLM)は、特に多種多様な地域や非英語言語において、日常生活に関する文化特有の知識を欠いていることが多い。
BLEnDはLLMの日常的な知識を様々な文化や言語で評価するために設計された手作りのベンチマークである。
提案手法は,短問合せと複数問合せの2つの形式を含むベンチマークを構築した。
論文 参考訳(メタデータ) (2024-06-14T11:48:54Z) - MLaKE: Multilingual Knowledge Editing Benchmark for Large Language Models [65.10456412127405]
MLaKEは5言語にわたる知識編集手法の適応性のベンチマークである。
MLaKEは、ウィキペディアから言語にまたがるファクトチェーンを集約し、フリーフォームとマルチチョイスの両方で質問を生成する。
MLaKEにおける既存手法の多言語知識編集の一般化能力を評価する。
論文 参考訳(メタデータ) (2024-04-07T15:23:28Z) - Retrieval-augmented Multilingual Knowledge Editing [81.6690436581947]
LLM(Large Language Models)で表される知識は、しばしば誤りであり、時間とともに時代遅れになる可能性がある。
知識編集(KE)は、新しい知識を注入するための効果的で経済的な代替手段として発展してきた。
本稿では,LLMの新たな知識を更新するためにRetrieval-augmented Multilingual Knowledge Editor (ReMaKE)を提案する。
論文 参考訳(メタデータ) (2023-12-20T14:08:58Z) - Okapi: Instruction-tuned Large Language Models in Multiple Languages
with Reinforcement Learning from Human Feedback [61.83548032416181]
複数の言語を対象としたRLHFに基づく命令調整型LLMシステムであるOkapiを提案する。
オカピは26の多言語言語でインストラクションと応答ランクデータを導入し、将来の多言語LLM研究の促進と開発に役立てている。
論文 参考訳(メタデータ) (2023-07-29T18:01:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。