論文の概要: Should Cross-Lingual AMR Parsing go Meta? An Empirical Assessment of Meta-Learning and Joint Learning AMR Parsing
- arxiv url: http://arxiv.org/abs/2410.03357v1
- Date: Fri, 4 Oct 2024 12:24:02 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-02 22:48:52.590123
- Title: Should Cross-Lingual AMR Parsing go Meta? An Empirical Assessment of Meta-Learning and Joint Learning AMR Parsing
- Title(参考訳): 言語横断型AMRパーシングはメタになるべきか? : メタラーニングと共同学習型AMRパーシングの実証評価
- Authors: Jeongwoo Kang, Maximin Coavoux, Cédric Lopez, Didier Schwab,
- Abstract要約: 言語間AMR解析は、トレーニングデータがソース言語でのみ利用できる場合、ターゲット言語でAMRグラフを予測するタスクである。
Langedijkら (2022) からインスピレーションを得て, 言語間AMR解析におけるメタラーニングの利用について検討した。
我々は,これらのモデルを$k$-shotシナリオで評価し,クロアチア語,ファルシ語,韓国語,中国語,フランス語での有効性を評価する。
- 参考スコア(独自算出の注目度): 8.04933271357397
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cross-lingual AMR parsing is the task of predicting AMR graphs in a target language when training data is available only in a source language. Due to the small size of AMR training data and evaluation data, cross-lingual AMR parsing has only been explored in a small set of languages such as English, Spanish, German, Chinese, and Italian. Taking inspiration from Langedijk et al. (2022), who apply meta-learning to tackle cross-lingual syntactic parsing, we investigate the use of meta-learning for cross-lingual AMR parsing. We evaluate our models in $k$-shot scenarios (including 0-shot) and assess their effectiveness in Croatian, Farsi, Korean, Chinese, and French. Notably, Korean and Croatian test sets are developed as part of our work, based on the existing The Little Prince English AMR corpus, and made publicly available. We empirically study our method by comparing it to classical joint learning. Our findings suggest that while the meta-learning model performs slightly better in 0-shot evaluation for certain languages, the performance gain is minimal or absent when $k$ is higher than 0.
- Abstract(参考訳): 言語間AMR解析は、トレーニングデータがソース言語でのみ利用できる場合、ターゲット言語でAMRグラフを予測するタスクである。
AMRトレーニングデータと評価データのサイズが小さいため、言語間AMR解析は英語、スペイン語、ドイツ語、中国語、イタリア語などの小さな言語でのみ研究されている。
言語間構文解析にメタラーニングを適用したLangedijk et al(2022)からインスピレーションを得て,メタラーニングを用いた言語間AMR解析について検討した。
我々は,これらのモデルを$k$-shotシナリオ(0-shotを含む)で評価し,クロアチア語,ファルシ語,韓国語,中国語,フランス語での有効性を評価した。
特に、韓国とクロアチアのテストセットは、既存のThe Little Prince English AMRコーパスに基づいて、我々の研究の一部として開発され、公開されています。
従来のジョイントラーニングと比較し,実証的研究を行った。
メタラーニングモデルは, 特定の言語に対する0ショット評価において若干改善されているが, $k$ が 0 よりも高い場合, 性能向上は最小か欠落であることが示唆された。
関連論文リスト
- MACT: Model-Agnostic Cross-Lingual Training for Discourse Representation Structure Parsing [4.536003573070846]
意味表現解析モデルのための言語間学習戦略を導入する。
事前訓練された言語モデルにエンコードされた言語間のアライメントを利用する。
実験では、英語、ドイツ語、イタリア語、オランダ語におけるDRS節とグラフ解析の大幅な改善が示されている。
論文 参考訳(メタデータ) (2024-06-03T07:02:57Z) - Adapting Mental Health Prediction Tasks for Cross-lingual Learning via Meta-Training and In-context Learning with Large Language Model [3.3590922002216193]
モデルに依存しないメタラーニングと,このギャップに対処するために大規模言語モデル(LLM)を活用する。
まず,自己超越型メタラーニングモデルを適用し,迅速な適応と言語間移動のためのモデル初期化を改良する。
並行して、LLMのインコンテキスト学習機能を用いて、スワヒリのメンタルヘルス予測タスクにおけるパフォーマンスの精度を評価する。
論文 参考訳(メタデータ) (2024-04-13T17:11:35Z) - Boosting Zero-shot Cross-lingual Retrieval by Training on Artificially
Code-Switched Data [26.38449396649045]
問合せや文書が言語によって異なる場合,ゼロショットローダの有効性は低下する。
そこで我々は,人工的なコード切替データに基づいてランキングモデルを訓練することを提案する。
論文 参考訳(メタデータ) (2023-05-09T09:32:19Z) - Meta-Learning a Cross-lingual Manifold for Semantic Parsing [75.26271012018861]
新しい言語をサポートするためにセマンティックをローカライズするには、効果的な言語間一般化が必要である。
本稿では,言語間移動において,最大サンプル効率で注釈付きセマンティックを学習するための一階メタ学習アルゴリズムを提案する。
ATIS上の6つの言語にまたがる結果は、ステップの組み合わせによって、各新言語におけるソーストレーニングデータの10パーセントを正確なセマンティクスでサンプリングできることを示している。
論文 参考訳(メタデータ) (2022-09-26T10:42:17Z) - Few-Shot Cross-lingual Transfer for Coarse-grained De-identification of
Code-Mixed Clinical Texts [56.72488923420374]
事前学習型言語モデル (LM) は低リソース環境下での言語間移動に大きな可能性を示している。
脳卒中におけるコードミキシング(スペイン・カタラン)臨床ノートの低リソース・実世界の課題を解決するために,NER (name recognition) のためのLMの多言語間転写特性を示す。
論文 参考訳(メタデータ) (2022-04-10T21:46:52Z) - From Good to Best: Two-Stage Training for Cross-lingual Machine Reading
Comprehension [51.953428342923885]
モデル性能を向上させるための2段階のアプローチを開発する。
我々は、トップk予測が正確な答えを含む確率を最大化するために、ハードラーニング(HL)アルゴリズムを設計する。
第2段階では, 正解と他の候補との微妙な違いを学習するために, 解答を意識したコントラスト学習機構が開発された。
論文 参考訳(メタデータ) (2021-12-09T07:31:15Z) - Multilingual AMR Parsing with Noisy Knowledge Distillation [68.01173640691094]
知識蒸留の観点から多言語AMR解析について検討し,既存の英語を教師として利用して多言語AMRを学習し,改善することを目的とする。
蒸留成功の鍵はノイズ入出力と正確な出力である。
論文 参考訳(メタデータ) (2021-09-30T15:13:48Z) - Mr. TyDi: A Multi-lingual Benchmark for Dense Retrieval [51.004601358498135]
Mr. TyDiは、11の類型的多様言語における単言語検索のためのベンチマークデータセットである。
このリソースの目的は、非英語言語における高密度検索技術の研究を促進することである。
論文 参考訳(メタデータ) (2021-08-19T16:53:43Z) - Translate, then Parse! A strong baseline for Cross-Lingual AMR Parsing [10.495114898741205]
我々は,各言語からの文をAMRに投影し,それらの意味的構造を捉えるモデルを開発した。
本稿では,単純な2ステップベースラインを再検討し,強力なNMTシステムと強力なAMRで拡張する。
実験の結果,T+Pはすべてのテスト言語で最新の最先端システムより優れていることがわかった。
論文 参考訳(メタデータ) (2021-06-08T17:52:48Z) - Explicit Alignment Objectives for Multilingual Bidirectional Encoders [111.65322283420805]
本稿では,多言語エンコーダAMBER(Aligned Multilingual Bi-directional EncodeR)の学習方法を提案する。
AMBERは、異なる粒度で多言語表現を整列する2つの明示的なアライメント目標を使用して、追加の並列データに基づいて訓練される。
実験結果から、AMBERは、シーケンスタグ付けで1.1平均F1スコア、XLMR-大規模モデル上での検索で27.3平均精度を得ることがわかった。
論文 参考訳(メタデータ) (2020-10-15T18:34:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。