論文の概要: In What Languages are Generative Language Models the Most Formal?
Analyzing Formality Distribution across Languages
- arxiv url: http://arxiv.org/abs/2302.12299v1
- Date: Thu, 23 Feb 2023 19:39:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-27 15:27:01.924879
- Title: In What Languages are Generative Language Models the Most Formal?
Analyzing Formality Distribution across Languages
- Title(参考訳): 生成言語モデルはどの言語でもっとも形式的か?
言語間の形式分布の分析
- Authors: As{\i}m Ersoy, Gerson Vizcarra, Tasmiah Tahsin Mayeesha, Benjamin
Muller
- Abstract要約: 本研究では,文化の影響を強く受けている1つの言語特性,形式性に注目した。
我々はXGLMとBLOOMの予測の形式性分布を5言語で解析する。
我々は,言語毎の1200世代を形式的,非公式,あるいは非接着的に分類し,迅速な形式化が予測に与える影響を計測する。
- 参考スコア(独自算出の注目度): 2.457872341625575
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multilingual generative language models (LMs) are increasingly fluent in a
large variety of languages. Trained on the concatenation of corpora in multiple
languages, they enable powerful transfer from high-resource languages to
low-resource ones. However, it is still unknown what cultural biases are
induced in the predictions of these models. In this work, we focus on one
language property highly influenced by culture: formality. We analyze the
formality distributions of XGLM and BLOOM's predictions, two popular generative
multilingual language models, in 5 languages. We classify 1,200 generations per
language as formal, informal, or incohesive and measure the impact of the
prompt formality on the predictions. Overall, we observe a diversity of
behaviors across the models and languages. For instance, XGLM generates
informal text in Arabic and Bengali when conditioned with informal prompts,
much more than BLOOM. In addition, even though both models are highly biased
toward the formal style when prompted neutrally, we find that the models
generate a significant amount of informal predictions even when prompted with
formal text. We release with this work 6,000 annotated samples, paving the way
for future work on the formality of generative multilingual LMs.
- Abstract(参考訳): 多言語生成言語モデル (LM) は、様々な言語で流用されるようになっている。
コーパスを複数の言語で結合させることで、高リソース言語から低リソース言語への強力な移行を可能にする。
しかし、これらのモデルの予測にどのような文化バイアスが引き起こされるのかはまだ分かっていない。
本研究では,文化の影響が強い言語特性,形式性に着目した。
我々はXGLMとBLOOMの予測の形式性分布を5言語で解析する。
我々は,言語毎の1200世代を形式的,非公式,あるいは非接着的に分類し,迅速な形式化が予測に与える影響を測定する。
全体としては、モデルや言語にまたがる行動の多様性を観察します。
例えば、XGLM は BLOOM よりもはるかに多く、非公式なプロンプトで条件付けられたとき、アラビア語とベンガル語で非公式のテキストを生成する。
また,両モデルとも中和時に形式的スタイルに非常に偏りがあるにもかかわらず,形式的テキストを駆使した場合でも,モデルがかなりの量の非公式な予測を生成することがわかった。
本研究は6000の注釈付きサンプルを用いてリリースし, 生成多言語LMの形式性に関する今後の研究の道を開く。
関連論文リスト
- Multilingual Text-to-Image Generation Magnifies Gender Stereotypes and Prompt Engineering May Not Help You [64.74707085021858]
多言語モデルは、モノリンガルモデルと同様に、有意な性別バイアスに悩まされていることを示す。
多言語モデルにおけるジェンダーバイアスの研究を促進するための新しいベンチマークMAGBIGを提案する。
以上の結果から,モデルが強い性バイアスを示すだけでなく,言語によって異なる行動を示すことが明らかとなった。
論文 参考訳(メタデータ) (2024-01-29T12:02:28Z) - Machine Translation to Control Formality Features in the Target Language [0.9208007322096532]
本研究では、機械学習が英語からフォーマルな言語への翻訳にどのように使われているかを検討する。
これは、形式性制御された設定でバイリンガルモデルを訓練し、その性能を事前訓練された多言語モデルと比較することで実現された。
予測されたマスク付きトークンと基底真理を比較することにより,公式な形式性精度(ACC)を評価する。
論文 参考訳(メタデータ) (2023-11-22T15:42:51Z) - The Less the Merrier? Investigating Language Representation in
Multilingual Models [8.632506864465501]
多言語モデルにおける言語表現について検討する。
我々は、コミュニティ中心のモデルが、低リソース言語で同じ家系の言語を区別する上で、より良い性能を発揮することを実験から観察した。
論文 参考訳(メタデータ) (2023-10-20T02:26:34Z) - Soft Language Clustering for Multilingual Model Pre-training [57.18058739931463]
本稿では,インスタンスを条件付きで符号化するためのフレキシブルガイダンスとして,コンテキスト的にプロンプトを検索するXLM-Pを提案する。
我々のXLM-Pは、(1)言語間における言語不変および言語固有知識の軽量なモデリングを可能にし、(2)他の多言語事前学習手法との容易な統合を可能にする。
論文 参考訳(メタデータ) (2023-06-13T08:08:08Z) - Sabi\'a: Portuguese Large Language Models [14.801853435122908]
対象言語における単言語事前学習は,すでに多種多様なコーパスで訓練されているモデルを大幅に改善することを示した。
ポルトガルの14のデータセットからなるスイートであるPoetaに関するわずかな評価によると、我々のモデルは、英語と多言語で比較すると、かなり差がある。
論文 参考訳(メタデータ) (2023-04-16T20:11:19Z) - Do Multilingual Language Models Capture Differing Moral Norms? [71.52261949766101]
大量多言語文表現は、未処理データの大規模なコーパスに基づいて訓練される。
これは、高資源言語からの道徳的判断を含む文化的価値をモデルが把握する原因となる可能性がある。
特定の言語におけるデータ不足は、ランダムで潜在的に有害な信念を発達させる可能性がある。
論文 参考訳(メタデータ) (2022-03-18T12:26:37Z) - Language Models are Few-shot Multilingual Learners [66.11011385895195]
我々は、非英語言語における多言語分類を行う際に、GPTモデルとT5モデルの多言語的スキルを評価する。
文脈としての英語の例を見ると、事前学習された言語モデルは、英語のテストサンプルだけでなく、英語以外のサンプルも予測できることが示されている。
論文 参考訳(メタデータ) (2021-09-16T03:08:22Z) - Discovering Representation Sprachbund For Multilingual Pre-Training [139.05668687865688]
多言語事前学習モデルから言語表現を生成し、言語分析を行う。
すべての対象言語を複数のグループにクラスタリングし、表現のスプラックバンドとして各グループに名前を付ける。
言語間ベンチマークで実験を行い、強いベースラインと比較して大幅な改善が達成された。
論文 参考訳(メタデータ) (2021-09-01T09:32:06Z) - Towards Zero-shot Language Modeling [90.80124496312274]
人間の言語学習に誘導的に偏りを持つニューラルモデルを構築した。
類型的に多様な訓練言語のサンプルからこの分布を推測する。
我々は、保留言語に対する遠隔監視として、追加の言語固有の側情報を利用する。
論文 参考訳(メタデータ) (2021-08-06T23:49:18Z) - Probing Multilingual Language Models for Discourse [0.0]
XLM-RoBERTaファミリーのモデルが常に最高のパフォーマンスを示していることが分かりました。
また, モデル蒸留は, 文表現の言語間移動能力に悪影響を及ぼす可能性が示唆された。
論文 参考訳(メタデータ) (2021-06-09T06:34:21Z) - Bilingual Language Modeling, A transfer learning technique for Roman
Urdu [0.0]
言語のコードスイッチングプロパティが、対応する高リソース言語からのクロス言語転送学習にどのように使用されるかを示す。
また、このトランスファー学習技術であるバイリンガル言語モデリングを用いて、ロマン・ウルドゥのより良いパフォーマンスモデルを作成する方法を示す。
論文 参考訳(メタデータ) (2021-02-22T12:56:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。