論文の概要: Cross-Lingual Learning in Multilingual Scene Text Recognition
- arxiv url: http://arxiv.org/abs/2312.10806v1
- Date: Sun, 17 Dec 2023 20:12:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-19 14:35:10.154208
- Title: Cross-Lingual Learning in Multilingual Scene Text Recognition
- Title(参考訳): 多言語シーンテキスト認識における言語横断学習
- Authors: Jeonghun Baek, Yusuke Matsui, Kiyoharu Aizawa
- Abstract要約: 多言語シーンテキスト認識(STR)のための言語間学習(CLL)
我々は,低リソース言語の性能向上のために,高リソース言語からの知識を活用した条件を見つけることを目的としている。
- 参考スコア(独自算出の注目度): 49.093367990835965
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we investigate cross-lingual learning (CLL) for multilingual
scene text recognition (STR). CLL transfers knowledge from one language to
another. We aim to find the condition that exploits knowledge from
high-resource languages for improving performance in low-resource languages. To
do so, we first examine if two general insights about CLL discussed in previous
works are applied to multilingual STR: (1) Joint learning with high- and
low-resource languages may reduce performance on low-resource languages, and
(2) CLL works best between typologically similar languages. Through extensive
experiments, we show that two general insights may not be applied to
multilingual STR. After that, we show that the crucial condition for CLL is the
dataset size of high-resource languages regardless of the kind of high-resource
languages. Our code, data, and models are available at
https://github.com/ku21fan/CLL-STR.
- Abstract(参考訳): 本稿では,多言語シーンテキスト認識(STR)のための言語間学習(CLL)について検討する。
CLLは知識をある言語から別の言語に転送する。
我々は,低リソース言語の性能向上のために,高リソース言語からの知識を活用することを目的とした。
そこで我々は,従来の研究で論じられたCLLに関する2つの一般的な知見が多言語STRに適用されているかを検討する。(1)高言語と低リソース言語との協調学習は,低リソース言語の性能を低下させる可能性があり,(2)CLLはタイプ論的に類似した言語間で最もよく機能する。
広範な実験を通して、多言語STRには2つの一般的な洞察が適用されないことを示す。
その後、CLLの重要な条件は、高リソース言語の種類に関わらず、高リソース言語のデータセットサイズであることを示す。
私たちのコード、データ、モデルはhttps://github.com/ku21fan/cll-strで利用可能です。
関連論文リスト
- Think Carefully and Check Again! Meta-Generation Unlocking LLMs for Low-Resource Cross-Lingual Summarization [108.6908427615402]
CLS(Cross-lingual summarization)は、異なるターゲット言語でソーステキストの要約を生成することを目的としている。
現在、インストラクションチューニング付き大規模言語モデル (LLM) は様々な英語タスクで優れている。
近年の研究では、LCSタスクにおけるLCMの性能は、わずかな設定でも満足できないことが示されている。
論文 参考訳(メタデータ) (2024-10-26T00:39:44Z) - Zero-shot Sentiment Analysis in Low-Resource Languages Using a
Multilingual Sentiment Lexicon [78.12363425794214]
私たちは、34の言語にまたがるゼロショットの感情分析タスクに重点を置いています。
文レベルの感情データを使用しない多言語語彙を用いた事前学習は、英語の感情データセットに微調整されたモデルと比較して、ゼロショット性能が優れていることを示す。
論文 参考訳(メタデータ) (2024-02-03T10:41:05Z) - Language Representation Projection: Can We Transfer Factual Knowledge
across Languages in Multilingual Language Models? [48.88328580373103]
パラメータフリーの$textbfL$anguage $textbfR$epresentation $textbfP$rojection Module (LRP2)を提案する。
第1のモジュールは非英語の表現を英語のような同値に変換し、第2のモジュールは英語のような表現を対応する非英語の表現に戻す。
mLAMAデータセットによる実験結果から,LRP2は事実知識検索の精度を大幅に向上し,多種多様な非英語言語間の知識伝達を容易にすることが示された。
論文 参考訳(メタデータ) (2023-11-07T08:16:16Z) - Learning Transfers over Several Programming Languages [5.350495525141013]
言語間転送は、ソース言語からのデータを使用して、ターゲット言語でのモデルパフォーマンスを改善する。
本稿では,変圧器を用いた大規模言語モデルと11から41のプログラミング言語を用いた4つのタスクに関する広範な実験を報告する。
学習は、複数のプログラミング言語間でうまく伝達される。
論文 参考訳(メタデータ) (2023-10-25T19:04:33Z) - Measuring Catastrophic Forgetting in Cross-Lingual Transfer Paradigms: Exploring Tuning Strategies [4.118037156777793]
言語間移動は、少ないリソースの言語でタスクを解くための有望なテクニックである。
大規模言語モデルに対する2つの微調整アプローチとゼロショットおよびフルショット学習アプローチを比較した。
論文 参考訳(メタデータ) (2023-09-12T09:37:08Z) - Soft Language Clustering for Multilingual Model Pre-training [57.18058739931463]
本稿では,インスタンスを条件付きで符号化するためのフレキシブルガイダンスとして,コンテキスト的にプロンプトを検索するXLM-Pを提案する。
我々のXLM-Pは、(1)言語間における言語不変および言語固有知識の軽量なモデリングを可能にし、(2)他の多言語事前学習手法との容易な統合を可能にする。
論文 参考訳(メタデータ) (2023-06-13T08:08:08Z) - Prix-LM: Pretraining for Multilingual Knowledge Base Construction [59.02868906044296]
複数言語による知識構築と完成のための統合フレームワークである Prix-LM を提案する。
既存の多言語KBから抽出したモノリンガルトリプルとクロスリンガルリンクの2種類の知識を利用する。
複数の言語におけるリンク予測、言語間リンク、バイリンガル語彙誘導など、標準的なエンティティ関連タスクの実験は、その効果を実証している。
論文 参考訳(メタデータ) (2021-10-16T02:08:46Z) - X-FACTR: Multilingual Factual Knowledge Retrieval from Pretrained
Language Models [103.75890012041366]
言語モデル(LM)は、事実の知識を捉えるのに驚くほど成功した。
しかし、LMの実際の表現能力の研究は、ほぼ間違いなく英語で行われている。
我々は23の語型的多様言語に対するクローゼスタイルプローブのベンチマークを作成する。
論文 参考訳(メタデータ) (2020-10-13T05:29:56Z) - Zero-Shot Cross-Lingual Transfer with Meta Learning [45.29398184889296]
英語以外の言語ではほとんど、あるいは全くデータがない場合に、複数の言語でのトレーニングモデルの設定を同時に検討する。
メタラーニングを用いて、この挑戦的な設定にアプローチできることが示される。
我々は、標準教師付きゼロショットのクロスランガルと、異なる自然言語理解タスクのための数ショットのクロスランガル設定を用いて実験を行った。
論文 参考訳(メタデータ) (2020-03-05T16:07:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。