論文の概要: Tracing the Roots of Facts in Multilingual Language Models: Independent,
Shared, and Transferred Knowledge
- arxiv url: http://arxiv.org/abs/2403.05189v1
- Date: Fri, 8 Mar 2024 10:09:57 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-11 20:18:04.565331
- Title: Tracing the Roots of Facts in Multilingual Language Models: Independent,
Shared, and Transferred Knowledge
- Title(参考訳): 多言語言語モデルにおけるファクトの根の追跡:独立的、共有的、伝達的知識
- Authors: Xin Zhao, Naoki Yoshinaga, Daisuke Oba
- Abstract要約: 本研究では,多言語言語モデル(ML-LM)が事実知識をどのように獲得し,表現するかを検討する。
ML-LMにおける事実の獲得と表現の3つのパターンを識別する。
本研究は,言語間における一貫した事実知識の維持という課題を浮き彫りにした。
- 参考スコア(独自算出の注目度): 16.923674220979
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Acquiring factual knowledge for language models (LMs) in low-resource
languages poses a serious challenge, thus resorting to cross-lingual transfer
in multilingual LMs (ML-LMs). In this study, we ask how ML-LMs acquire and
represent factual knowledge. Using the multilingual factual knowledge probing
dataset, mLAMA, we first conducted a neuron investigation of ML-LMs
(specifically, multilingual BERT). We then traced the roots of facts back to
the knowledge source (Wikipedia) to identify the ways in which ML-LMs acquire
specific facts. We finally identified three patterns of acquiring and
representing facts in ML-LMs: language-independent, cross-lingual shared and
transferred, and devised methods for differentiating them. Our findings
highlight the challenge of maintaining consistent factual knowledge across
languages, underscoring the need for better fact representation learning in
ML-LMs.
- Abstract(参考訳): 低リソース言語における言語モデル(LM)の事実知識の獲得は、多言語LM(ML-LM)における言語間移動に頼り、深刻な課題となる。
本研究では,ML-LMが事実知識をいかに獲得し,表現するかを問う。
本研究では,ml-lms(特に多言語bert)のニューロン実験を行った。
そして、事実のルーツを知識ソース(Wikipedia)に遡り、ML-LMが特定の事実を取得する方法を特定した。
ML-LMにおける事実の獲得と表現のパターンを,言語非依存,言語間共有,移動の3つに分類した。
本研究は,ML-LMにおけるファクト表現学習の必要性を浮き彫りにして,言語間の一貫した事実知識を維持することの課題を強調した。
関連論文リスト
- Multilingual Large Language Models: A Systematic Survey [38.972546467173565]
本稿では,多言語大言語モデル(MLLM)の最新研究を包括的に調査する。
まず,MLLMのアーキテクチャと事前学習の目的について論じ,多言語機能に寄与する重要なコンポーネントや方法論を強調した。
本稿では,MLLMの言語間知識,推論,人的価値との整合性,安全性,解釈可能性,専門的応用に関する詳細な分類とロードマップを示す。
論文 参考訳(メタデータ) (2024-11-17T13:21:26Z) - Think Carefully and Check Again! Meta-Generation Unlocking LLMs for Low-Resource Cross-Lingual Summarization [108.6908427615402]
CLS(Cross-lingual summarization)は、異なるターゲット言語でソーステキストの要約を生成することを目的としている。
現在、インストラクションチューニング付き大規模言語モデル (LLM) は様々な英語タスクで優れている。
近年の研究では、LCSタスクにおけるLCMの性能は、わずかな設定でも満足できないことが示されている。
論文 参考訳(メタデータ) (2024-10-26T00:39:44Z) - Beneath the Surface of Consistency: Exploring Cross-lingual Knowledge Representation Sharing in LLMs [31.893686987768742]
言語モデルは、言語全体で同じ事実に答える能力に矛盾する。
モデルがクエリに一貫して答える能力と、複数の言語で共有された表現で'ストア'する能力の2つの側面から、多言語的な事実知識を探求する。
論文 参考訳(メタデータ) (2024-08-20T08:38:30Z) - Crosslingual Capabilities and Knowledge Barriers in Multilingual Large Language Models [62.91524967852552]
大規模言語モデル(LLM)は、多言語コーパスの事前訓練のため、一般的に多言語である。
しかし、これらのモデルは言語間で対応する概念を関連付けることができ、効果的にクロスランガルなのでしょうか?
本研究は,言語横断的課題に関する6つの技術 LLM の評価を行った。
論文 参考訳(メタデータ) (2024-06-23T15:15:17Z) - A Survey on Multilingual Large Language Models: Corpora, Alignment, and Bias [5.104497013562654]
本稿では,MLLMの進化,鍵技術,多言語能力について概説する。
我々は、MLLMのトレーニングや下流タスクに適した多言語データセットに広く利用されている多言語コーパスについて検討する。
本稿では,MLLMのカテゴリと評価指標を含むバイアスについて論じ,既存のデバイアス手法を要約する。
論文 参考訳(メタデータ) (2024-04-01T05:13:56Z) - Language-Specific Neurons: The Key to Multilingual Capabilities in Large Language Models [117.20416338476856]
大規模言語モデル(LLM)は、特別にキュレートされた多言語並列コーパスで事前訓練されることなく、顕著な多言語機能を示す。
LLM内の言語特異的ニューロンを識別するための新しい検出手法である言語アクティベーション確率エントロピー(LAPE)を提案する。
以上の結果から,LLMが特定の言語を処理できる能力は,神経細胞のサブセットが少なすぎるためであることが示唆された。
論文 参考訳(メタデータ) (2024-02-26T09:36:05Z) - Supervised Knowledge Makes Large Language Models Better In-context Learners [94.89301696512776]
大規模言語モデル(LLM)は、素早い工学を通して、文脈内学習能力の出現を示す。
自然言語理解と質問応答におけるLLMの一般化性と事実性の向上という課題は、まだ未解決のままである。
本研究では, LLM の信頼性を高める枠組みを提案する。1) 分布外データの一般化,2) 差別モデルによる LLM のメリットの解明,3) 生成タスクにおける幻覚の最小化。
論文 参考訳(メタデータ) (2023-12-26T07:24:46Z) - Do Large Language Models Know about Facts? [60.501902866946]
大規模言語モデル(LLM)は、最近、さまざまな自然言語処理タスクにおいて、大幅なパフォーマンス改善を推進している。
我々は,ベンチマークPinocchioを設計し,LLM内の事実知識の範囲と範囲を評価することを目的とする。
Pinocchioには、異なるソース、タイムライン、ドメイン、リージョン、言語にまたがる20万のさまざまな事実質問が含まれている。
論文 参考訳(メタデータ) (2023-10-08T14:26:55Z) - Adapters for Enhanced Modeling of Multilingual Knowledge and Text [54.02078328453149]
言語モデルは多言語言語モデル(MLLM)に拡張された。
知識グラフは、注意深いキュレーションを必要とし、少数の高リソース言語でのみ利用可能である、明示的な三重形式で事実を含む。
我々は,MLLMを多言語知識グラフ(MLKG)からの知識で拡張し,言語や知識グラフのタスクに多くの言語で取り組むことを提案する。
論文 参考訳(メタデータ) (2022-10-24T21:33:42Z) - A Primer on Pretrained Multilingual Language Models [18.943173499882885]
MLLM(Multilingual Language Models)は、多数の言語に事前学習の能力をもたらすための実行可能な選択肢として登場した。
本報告では,MLLMに関する研究分野について概説する。
論文 参考訳(メタデータ) (2021-07-01T18:01:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。