論文の概要: Editing Across Languages: A Survey of Multilingual Knowledge Editing
- arxiv url: http://arxiv.org/abs/2505.14393v1
- Date: Tue, 20 May 2025 14:13:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-21 14:49:53.337581
- Title: Editing Across Languages: A Survey of Multilingual Knowledge Editing
- Title(参考訳): 言語間の編集:多言語知識編集に関する調査
- Authors: Nadir Durrani, Basel Mousi, Fahim Dalvi,
- Abstract要約: この調査は、MKE(Multilingual Knowledge Editing)に関する最近の研究を体系化する。
MKEは、事実編集が言語全体にわたって確実に一般化されることを保証することに焦点を当てたモデル編集のサブドメインである。
本稿では,パラメータベース,メモリベース,微調整,ハイパーネットワークアプローチを網羅したMKE手法の包括的分類法を提案する。
- 参考スコア(独自算出の注目度): 16.700978644147572
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: While Knowledge Editing has been extensively studied in monolingual settings, it remains underexplored in multilingual contexts. This survey systematizes recent research on Multilingual Knowledge Editing (MKE), a growing subdomain of model editing focused on ensuring factual edits generalize reliably across languages. We present a comprehensive taxonomy of MKE methods, covering parameter-based, memory-based, fine-tuning, and hypernetwork approaches. We survey available benchmarks,summarize key findings on method effectiveness and transfer patterns, identify challenges in cross-lingual propagation, and highlight open problems related to language anisotropy, evaluation coverage, and edit scalability. Our analysis consolidates a rapidly evolving area and lays the groundwork for future progress in editable language-aware LLMs.
- Abstract(参考訳): 知識編集はモノリンガルな設定で広く研究されてきたが、多言語的な文脈では未探索のままである。
本調査は,多言語知識編集(MKE, Multilingual Knowledge Editing)に関する最近の研究を体系化したものである。
本稿では,パラメータベース,メモリベース,微調整,ハイパーネットワークアプローチを網羅したMKE手法の包括的分類法を提案する。
我々は、利用可能なベンチマークを調査し、メソッドの有効性と転送パターンに関する重要な知見を要約し、言語間伝播における課題を特定し、言語異方性、評価カバレッジ、編集スケーラビリティに関連するオープンな問題を明らかにする。
我々の分析は、急速に発展する領域を集約し、編集可能な言語対応LLMの今後の進歩の基盤となる。
関連論文リスト
- UniEdit: A Unified Knowledge Editing Benchmark for Large Language Models [16.546605509744015]
オープンドメイン知識に基づく大規模言語モデル(LLM)編集のための統一ベンチマークであるUniEditを紹介する。
まず,5つのカテゴリにまたがる25の共通領域からエンティティを選択することで,サンプルを編集する。
編集における一般性や局所性の問題に対処するため,我々はNorborhood Multi-hop Chain Smpling (NMCS)アルゴリズムを設計する。
論文 参考訳(メタデータ) (2025-05-18T10:19:01Z) - Cross-Lingual Multi-Hop Knowledge Editing [53.028586843468915]
言語横断的な設定で様々なSoTA知識編集技術の性能を計測・解析するための多言語多言語知識編集パラダイムを提案する。
具体的には、知識編集能力を測定するために並列言語間ベンチマーク CROLIN-MQUAKE を作成します。
次に,言語間マルチホップ知識編集システムであるCLEVER-CKEを提案する。
論文 参考訳(メタデータ) (2024-07-14T17:18:16Z) - MEMLA: Enhancing Multilingual Knowledge Editing with Neuron-Masked Low-Rank Adaptation [18.087144677674786]
我々は多言語知識編集(MKE)に重点を置いており、複数の言語にまたがる更新の伝播が必要である。
12言語からなる新しいデータセットであるMKEB(Multilingual Knowledge Editing Benchmark)を紹介する。
また,ニューロンマスト型低ランク適応(MEMLA)による知識編集を促進する手法を提案する。
論文 参考訳(メタデータ) (2024-06-17T14:03:50Z) - MLaKE: Multilingual Knowledge Editing Benchmark for Large Language Models [65.10456412127405]
MLaKEは5言語にわたる知識編集手法の適応性のベンチマークである。
MLaKEは、ウィキペディアから言語にまたがるファクトチェーンを集約し、フリーフォームとマルチチョイスの両方で質問を生成する。
MLaKEにおける既存手法の多言語知識編集の一般化能力を評価する。
論文 参考訳(メタデータ) (2024-04-07T15:23:28Z) - Cross-Lingual Knowledge Editing in Large Language Models [73.12622532088564]
知識編集は、スクラッチから再学習することなく、大きな言語モデルを新しい知識に適応させることが示されている。
ソース言語編集が別のターゲット言語に与える影響は、いまだ不明である。
まず、ZsREを英語から中国語に翻訳することで、大規模な言語間合成データセットを収集する。
論文 参考訳(メタデータ) (2023-09-16T11:07:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。