論文の概要: Findings of the TSAR-2022 Shared Task on Multilingual Lexical
Simplification
- arxiv url: http://arxiv.org/abs/2302.02888v1
- Date: Mon, 6 Feb 2023 15:53:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-07 16:10:55.788718
- Title: Findings of the TSAR-2022 Shared Task on Multilingual Lexical
Simplification
- Title(参考訳): 多言語語彙単純化におけるTSAR-2022共有タスクの発見
- Authors: Horacio Saggion, Sanja \v{S}tajner, Daniel Ferr\'es, Kim Cheng Sheang,
Matthew Shardlow, Kai North, Marcos Zampieri
- Abstract要約: TSAR-2022共有タスクは、EMNLP 2022と共同で開催されたテキストの簡素化、アクセシビリティ、可読性に関するワークショップの一部として編成された。
自然言語処理研究コミュニティ(Natural Language Processing Research Community)と呼ばれるこの課題は、英語、ポルトガル語、スペイン語の多言語語彙の単純化において、芸術の状態を前進させる方法に貢献するものである。
共有タスクの結果は、英語の語彙的単純化による語彙的単純化の新しいベンチマークが、スペイン語や(ブラジル語)ポルトガル語よりも顕著に高い結果を示した。
- 参考スコア(独自算出の注目度): 12.33631648094732
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We report findings of the TSAR-2022 shared task on multilingual lexical
simplification, organized as part of the Workshop on Text Simplification,
Accessibility, and Readability TSAR-2022 held in conjunction with EMNLP 2022.
The task called the Natural Language Processing research community to
contribute with methods to advance the state of the art in multilingual lexical
simplification for English, Portuguese, and Spanish. A total of 14 teams
submitted the results of their lexical simplification systems for the provided
test data. Results of the shared task indicate new benchmarks in Lexical
Simplification with English lexical simplification quantitative results
noticeably higher than those obtained for Spanish and (Brazilian) Portuguese.
- Abstract(参考訳): テキストの簡略化,アクセシビリティ,可読性に関するワークショップ「TSAR-2022」の一環として,EMNLP 2022と共同で開催されている多言語語彙の簡略化に関するTSAR-2022共有タスクについて報告する。
このタスクは、自然言語処理研究コミュニティに、英語、ポルトガル語、スペイン語の多言語語彙化における芸術の状態を前進させる方法を提供するよう呼びかけた。
提供されたテストデータの語彙的単純化システムの結果を合計14チームが提出した。
共有タスクの結果は、英語の語彙単純化による語彙単純化の新しいベンチマークが、スペイン語や(ブラジル語)ポルトガル語よりも顕著に高い結果を示した。
関連論文リスト
- Findings of the IWSLT 2024 Evaluation Campaign [102.7608597658451]
本稿は、第21回IWSLT会議によって組織された共有タスクについて報告する。
共通タスクは、音声翻訳における7つの科学的課題に対処する。
論文 参考訳(メタデータ) (2024-11-07T19:11:55Z) - Deep Exploration of Cross-Lingual Zero-Shot Generalization in Instruction Tuning [47.75550640881761]
非英語タスクに適用することで、命令チューニングにおける言語間一般化について検討する。
我々は、言語における不一致を軽減するために言語間テンプレートを設計し、トレーニングと推論の間のテンプレートの命令形式を規定する。
実験の結果,英語と韓国語の両方の言語間一般化による一貫した改善が示された。
論文 参考訳(メタデータ) (2024-06-13T04:10:17Z) - Findings of the 2023 ML-SUPERB Challenge: Pre-Training and Evaluation
over More Languages and Beyond [89.54151859266202]
2023年のMultilingual Speech Universal Performance Benchmark (ML-SUPERB) Challengeは、宣言されたSUPERBフレームワークに拡張される。
この挑戦は12のモデル提出と54の言語コーパスを集め、154の言語を含む包括的なベンチマークをもたらした。
この結果は、単にスケーリングモデルが多言語音声タスクにおける決定的な解決策ではないことを示唆している。
論文 参考訳(メタデータ) (2023-10-09T08:30:01Z) - UCAS-IIE-NLP at SemEval-2023 Task 12: Enhancing Generalization of
Multilingual BERT for Low-resource Sentiment Analysis [24.542445315345464]
本稿では,SemEval-2023 Task 12: Sentiment Analysis for African Languageについて述べる。
具体的には,語彙に基づく多言語BERTを設計し,言語適応と感情認識表現学習を容易にする。
提案システムは,多言語およびゼロショットの感情分類サブタスクにおいて,ベースラインをほぼ上回り,競争的な結果を得た。
論文 参考訳(メタデータ) (2023-06-01T19:10:09Z) - Revisiting non-English Text Simplification: A Unified Multilingual
Benchmark [14.891068432456262]
本稿では,12言語に170万以上の複雑な文対を含む27のリソースの集合であるMultiSimベンチマークを紹介する。
事前学習した多言語言語モデルを用いたMultiSimを用いた実験により,非英語環境での多言語学習によるエキサイティングな性能向上が示された。
論文 参考訳(メタデータ) (2023-05-25T03:03:29Z) - ComSL: A Composite Speech-Language Model for End-to-End Speech-to-Text
Translation [79.66359274050885]
公的な事前訓練された音声のみのモデルと言語のみのモデルからなる複合アーキテクチャ上に構築された音声言語モデルであるComSLを提案する。
提案手法は,エンドツーエンドの音声-テキスト翻訳タスクにおいて有効であることを示す。
論文 参考訳(メタデータ) (2023-05-24T07:42:15Z) - Multilingual Simplification of Medical Texts [49.469685530201716]
4つの言語で医療領域のための文章整列型多言語テキスト単純化データセットであるMultiCochraneを紹介する。
これらの言語にまたがる微調整およびゼロショットモデルの評価を行い,人間による評価と分析を行った。
モデルは、実行可能な単純化されたテキストを生成することができるが、このデータセットが扱う可能性のある、卓越した課題を特定する。
論文 参考訳(メタデータ) (2023-05-21T18:25:07Z) - Efficiently Aligned Cross-Lingual Transfer Learning for Conversational
Tasks using Prompt-Tuning [98.60739735409243]
英語のような高リソース言語で訓練された言語モデルの言語間移動は、多くのNLPタスクのために広く研究されている。
並列および大規模多言語会話データセットである言語間アライメント事前学習のためのXSGDを導入する。
協調的な言語間表現を容易にするために,アライメントプロンプトを学習するための効率的なプロンプトチューニング手法を開発した。
論文 参考訳(メタデータ) (2023-04-03T18:46:01Z) - UniHD at TSAR-2022 Shared Task: Is Compute All We Need for Lexical
Simplification? [2.931632009516441]
GPT-3応答に基づくパイプラインを記述し、少数のトレーニングインスタンスで、幅広い設定で競合するアプローチを上回ります。
スペイン語とポルトガル語のサブセットを適用することで、従来のプロンプトに小さな変更を加えるだけで、最先端の結果が得られます。
論文 参考訳(メタデータ) (2023-01-04T18:59:20Z) - MANTIS at TSAR-2022 Shared Task: Improved Unsupervised Lexical
Simplification with Pretrained Encoders [31.64341800095214]
我々は,テキストの簡略化,アクセシビリティ,可読性に関するEMNLP 2022ワークショップの,語彙的単純化に関するTSAR-2022共有タスクへの貢献を紹介する。
我々のアプローチは、事前訓練エンコーダ(LSBert)システムを用いて、教師なし語彙単純化システムを構築し、拡張する。
当社のベストパフォーマンスシステムはLSBertの精度を5.9%向上し,33位中2位となった。
論文 参考訳(メタデータ) (2022-12-19T20:57:45Z) - Lexical Simplification Benchmarks for English, Portuguese, and Spanish [23.90236014260585]
英語,スペイン語,(ブラジル語)ポルトガル語の語彙単純化のための新しいベンチマークデータセットを提案する。
これは3つの言語の語彙的単純化システムを直接比較した最初のデータセットである。
最先端の神経語彙単純化システムは,3言語すべてで最先端の非神経語彙単純化システムより優れていた。
論文 参考訳(メタデータ) (2022-09-12T15:06:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。