論文の概要: Cross-lingual Similarity of Multilingual Representations Revisited
- arxiv url: http://arxiv.org/abs/2212.01924v1
- Date: Sun, 4 Dec 2022 21:02:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-06 15:00:30.165437
- Title: Cross-lingual Similarity of Multilingual Representations Revisited
- Title(参考訳): 再訪された多言語表現の言語間類似性
- Authors: Maksym Del and Mark Fishel
- Abstract要約: CKA/CCAの仮定は、言語間学習分析のモチベーションの1つとよく一致しない。
CKA/CCAの難易度を除外した簡単な代替手段として,textitAverage Neuron-Wise correlation (ANC)を導入した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Related works used indexes like CKA and variants of CCA to measure the
similarity of cross-lingual representations in multilingual language models. In
this paper, we argue that assumptions of CKA/CCA align poorly with one of the
motivating goals of cross-lingual learning analysis, i.e., explaining zero-shot
cross-lingual transfer. We highlight what valuable aspects of cross-lingual
similarity these indexes fail to capture and provide a motivating case study
\textit{demonstrating the problem empirically}. Then, we introduce
\textit{Average Neuron-Wise Correlation (ANC)} as a straightforward alternative
that is exempt from the difficulties of CKA/CCA and is good specifically in a
cross-lingual context. Finally, we use ANC to construct evidence that the
previously introduced ``first align, then predict'' pattern takes place not
only in masked language models (MLMs) but also in multilingual models with
\textit{causal language modeling} objectives (CLMs). Moreover, we show that the
pattern extends to the \textit{scaled versions} of the MLMs and CLMs (up to 85x
original mBERT).\footnote{Our code is publicly available at
\url{https://github.com/TartuNLP/xsim}}
- Abstract(参考訳): 関連する作業では、CKAのようなインデックスとCCAの変種を使用して、多言語言語モデルにおける言語間表現の類似度を測定した。
本稿では,CKA/CCAの仮定が,言語間学習分析のモチベーションの1つ,すなわちゼロショット言語間移動の説明とよく一致していないことを論じる。
我々は、これらの指標が捉えられなかった言語間類似性の価値のある側面を強調し、経験的なケーススタディ \textit{demonstrating the problem empirically} を提供する。
そこで我々は,CKA/CCAの難しさを排除し,言語横断的な文脈で特に優れている簡単な代替手段として,‘textit{Average Neuron-Wise correlation(ANC)’を紹介した。
最後に、ANCを用いて、以前に導入された 'firstaligned, then predict'' パターンがマスク言語モデル (MLM) だけでなく、 \textit{causal language modeling} objectives (CLMs) を用いた多言語モデルでも発生することを示す。
さらに、このパターンは、MLM と CLM の \textit{scaled version} にまで拡張されている(85倍のmBERT)。
\footnote{Our code is public available at \url{https://github.com/TartuNLP/xsim}}
関連論文リスト
- Crosslingual Capabilities and Knowledge Barriers in Multilingual Large Language Models [62.91524967852552]
大規模言語モデル(LLM)は、多言語コーパスの事前訓練のため、一般的に多言語である。
しかし、これらのモデルは言語間で対応する概念を関連付けることができ、効果的にクロスランガルなのでしょうか?
本研究は,言語横断的課題に関する6つの技術 LLM の評価を行った。
論文 参考訳(メタデータ) (2024-06-23T15:15:17Z) - Hyperpolyglot LLMs: Cross-Lingual Interpretability in Token Embeddings [4.2243058640527575]
言語間移動学習は多言語大言語モデル(LLM)の重要な特性である
1)事前学習とモデルアーキテクチャが言語表現に与える影響,2)言語モデルに埋め込まれた言語間表現の応用について検討する。
論文 参考訳(メタデータ) (2023-11-29T19:20:14Z) - To token or not to token: A Comparative Study of Text Representations
for Cross-Lingual Transfer [23.777874316083984]
ゼロショットと少数ショットの両方の評価を重み付けして表現できるスコアリング言語クオシアン計量を提案する。
解析の結果,言語が密接に関連し,視覚的に類似したスクリプトを共有する場合,画像ベースモデルは言語間移動に優れることがわかった。
単語関係が重要な役割を果たす依存性解析タスクでは、キャラクタレベルに焦点を当てたモデルが他よりも優れています。
論文 参考訳(メタデータ) (2023-10-12T06:59:10Z) - Modeling Sequential Sentence Relation to Improve Cross-lingual Dense
Retrieval [87.11836738011007]
マスク付き文モデル(MSM)と呼ばれる多言語多言語言語モデルを提案する。
MSMは、文表現を生成する文エンコーダと、文書から文ベクトルのシーケンスに適用される文書エンコーダとから構成される。
モデルをトレーニングするために,サンプル負の階層的コントラスト損失によって文ベクトルをマスクし,予測するマスク付き文予測タスクを提案する。
論文 参考訳(メタデータ) (2023-02-03T09:54:27Z) - Understanding Translationese in Cross-Lingual Summarization [106.69566000567598]
言語間要約(MS)は、異なる対象言語で簡潔な要約を生成することを目的としている。
大規模なCLSデータを集めるために、既存のデータセットは通常、それらの生成に翻訳を伴います。
本稿では、まず、CLSデータセット構築の異なるアプローチが、異なるレベルの翻訳に結びつくことを確認する。
論文 参考訳(メタデータ) (2022-12-14T13:41:49Z) - Learning Disentangled Semantic Representations for Zero-Shot
Cross-Lingual Transfer in Multilingual Machine Reading Comprehension [40.38719019711233]
マルチリンガル事前学習モデルは、機械読取理解(MRC)において、リッチリソース言語から低リソース言語への移行知識をゼロショットで得ることができる
本稿では,シメセマンティック・ディスタングルメント・モデル(SSDM)を用いた,多言語事前学習モデルで学習した表現の構文から意味論を解離させる新しい多言語MRCフレームワークを提案する。
論文 参考訳(メタデータ) (2022-04-03T05:26:42Z) - Multilingual Generative Language Models for Zero-Shot Cross-Lingual
Event Argument Extraction [80.61458287741131]
ゼロショット言語間イベント引数抽出(EAE)における多言語事前学習型生成言語モデルの活用について検討する。
EAEを言語生成タスクとして定式化することにより、イベント構造を効果的にエンコードし、引数間の依存関係をキャプチャする。
提案するモデルでは,多言語事前学習型生成言語モデルを用いて,入力文から抽出した引数で言語に依存しないテンプレートを補う文を生成する。
論文 参考訳(メタデータ) (2022-03-15T23:00:32Z) - A Variational Hierarchical Model for Neural Cross-Lingual Summarization [85.44969140204026]
言語間の要約(英: cross-lingual summarization)とは、ある言語の文書を別の言語の要約に変換することである。
CLSに関する既存の研究は主にパイプライン手法の利用やエンドツーエンドモデルの共同トレーニングに重点を置いている。
条件付き変分自動エンコーダに基づくCLSタスクの階層モデルを提案する。
論文 参考訳(メタデータ) (2022-03-08T02:46:11Z) - A Multilingual Bag-of-Entities Model for Zero-Shot Cross-Lingual Text
Classification [16.684856745734944]
ゼロショット言語間テキスト分類の性能を向上する多言語バッグ・オブ・エンティリティモデルを提案する。
同じ概念を表す複数の言語のエンティティは、ユニークな識別子で定義される。
したがって、リソース豊富な言語のエンティティ機能に基づいて訓練されたモデルは、他の言語に直接適用することができる。
論文 参考訳(メタデータ) (2021-10-15T01:10:50Z) - InfoXLM: An Information-Theoretic Framework for Cross-Lingual Language
Model Pre-Training [135.12061144759517]
本稿では,言語間言語モデルの事前学習を定式化する情報理論フレームワークを提案する。
コントラスト学習に基づく新しい事前学習課題を提案する。
単言語コーパスと並列コーパスの両方を活用することで、事前訓練されたモデルの言語間変換性を向上させるために、プレテキストを共同で訓練する。
論文 参考訳(メタデータ) (2020-07-15T16:58:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。