論文の概要: BMIKE-53: Investigating Cross-Lingual Knowledge Editing with In-Context Learning
- arxiv url: http://arxiv.org/abs/2406.17764v1
- Date: Tue, 25 Jun 2024 17:48:56 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-26 13:21:40.359659
- Title: BMIKE-53: Investigating Cross-Lingual Knowledge Editing with In-Context Learning
- Title(参考訳): BMIKE-53:インテクスト学習による言語間知識編集の検討
- Authors: Ercong Nie, Bo Shao, Zifeng Ding, Mingyang Wang, Helmut Schmid, Hinrich Schütze,
- Abstract要約: 知識編集(KE)は、大規模言語モデルの知識を更新するための有効なソリューションとして登場した。
3種類のKEタスクタイプにわたる53の多言語における言語間KE評価のためのBMIKE-53ベンチマークを提案する。
本評価では,信頼性,汎用性,局所性,可搬性の観点から,言語間知識伝達に着目した。
- 参考スコア(独自算出の注目度): 43.059873703788206
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Large language models (LLMs) possess extensive parametric knowledge, but this knowledge is difficult to update with new information because retraining is very expensive and infeasible for closed-source models. Knowledge editing (KE) has emerged as a viable solution for updating the knowledge of LLMs without compromising their overall performance. On-the-fly KE methods, inspired by in-context learning (ICL), have shown great promise and allow LLMs to be treated as black boxes. In the past, KE was primarily employed in English contexts, whereas the potential for cross-lingual KE in current English-centric LLMs has not been fully explored. To foster more research in this direction, we introduce the BMIKE-53 benchmark for evaluating cross-lingual KE on 53 diverse languages across three KE task types. We also propose a gradient-free KE method called Multilingual In-context Knowledge Editing (MIKE) and evaluate it on BMIKE-53. Our evaluation focuses on cross-lingual knowledge transfer in terms of reliability, generality, locality, and portability, offering valuable insights and a framework for future research in cross-lingual KE. Our code and data are publicly accessible via the anonymous repository at https://anonymous.4open.science/r/MIKE.
- Abstract(参考訳): 大規模言語モデル (LLM) には幅広いパラメトリック知識があるが、この知識を新しい情報で更新することは困難である。
知識編集(KE)は、LLMの知識を全体的な性能を損なうことなく更新するための有効なソリューションとして登場した。
In-context Learning (ICL) にインスパイアされたオンザフライKE法は,LLMをブラックボックスとして扱えるようにした。
これまで、KEは主に英語の文脈で用いられてきたが、現在の英語中心のLLMにおける言語間KEの可能性は、完全には調査されていない。
そこで本研究では,3種類のKEタスクタイプにまたがる53言語における言語間KE評価のためのBMIKE-53ベンチマークを提案する。
また,MIKE(Multilingual In-context Knowledge Editing)と呼ばれる勾配のないKE手法を提案し,BMIKE-53で評価する。
本評価は,言語間知識伝達の信頼性,汎用性,局所性,可搬性に焦点をあて,言語間KE研究のための貴重な洞察と枠組みを提供する。
私たちのコードとデータは、https://anonymous.4open.science/r/MIKE.comの匿名リポジトリから公開されています。
関連論文リスト
- LM-PUB-QUIZ: A Comprehensive Framework for Zero-Shot Evaluation of Relational Knowledge in Language Models [2.1311017627417]
知識探索は、言語モデル(LM)が事前学習期間中に関係知識を取得する程度を評価する。
提案するLM-PUB-QUIZは,BEAR探索機構を中心に構築されたPythonフレームワークとリーダボードである。
論文 参考訳(メタデータ) (2024-08-28T11:44:52Z) - Cross-Lingual Multi-Hop Knowledge Editing -- Benchmarks, Analysis and a Simple Contrastive Learning based Approach [53.028586843468915]
言語横断的な設定で様々なSoTA知識編集技術の性能を計測・解析するための多言語多言語知識編集パラダイムを提案する。
具体的には、知識編集能力を測定するために並列言語間ベンチマーク CROLIN-MQUAKE を作成します。
次に,言語間マルチホップ知識編集システムであるCLEVER-CKEを提案する。
論文 参考訳(メタデータ) (2024-07-14T17:18:16Z) - LLMs Are Few-Shot In-Context Low-Resource Language Learners [59.74451570590808]
In-context Learning (ICL) は、大規模言語モデル(LLM)に、表現不足の言語で多様なタスクを実行する権限を与える。
ICLとその言語間変動(X-ICL)を25の低リソース言語と7の比較的高リソース言語で検討した。
本研究は,LLMの低リソース理解品質向上における文脈内情報の重要性を論じる。
論文 参考訳(メタデータ) (2024-03-25T07:55:29Z) - Zero-Shot Cross-Lingual Reranking with Large Language Models for
Low-Resource Languages [51.301942056881146]
アフリカ語における言語間情報検索システムにおいて,大規模言語モデル (LLM) がリランカーとしてどのように機能するかを検討する。
私たちの実装は、英語と4つのアフリカの言語(ハウサ語、ソマリ語、スワヒリ語、ヨルバ語)を対象としています。
我々は、英語のクェリとアフリカの言葉の文節による言語横断的な格付けについて検討する。
論文 参考訳(メタデータ) (2023-12-26T18:38:54Z) - Retrieval-augmented Multilingual Knowledge Editing [81.6690436581947]
LLM(Large Language Models)で表される知識は、しばしば誤りであり、時間とともに時代遅れになる可能性がある。
知識編集(KE)は、新しい知識を注入するための効果的で経済的な代替手段として発展してきた。
本稿では,LLMの新たな知識を更新するためにRetrieval-augmented Multilingual Knowledge Editor (ReMaKE)を提案する。
論文 参考訳(メタデータ) (2023-12-20T14:08:58Z) - Knowledge Rumination for Pre-trained Language Models [77.55888291165462]
本稿では,学習前の言語モデルが外部コーパスから検索することなく,関連する潜在知識を活用できるようにするための,Knowledge Ruminationと呼ばれる新しいパラダイムを提案する。
本稿では,RoBERTa,DeBERTa,GPT-3などの言語モデルに適用する。
論文 参考訳(メタデータ) (2023-05-15T15:47:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。