論文の概要: Findings of the TSAR-2022 Shared Task on Multilingual Lexical
Simplification
- arxiv url: http://arxiv.org/abs/2302.02888v1
- Date: Mon, 6 Feb 2023 15:53:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-07 16:10:55.788718
- Title: Findings of the TSAR-2022 Shared Task on Multilingual Lexical
Simplification
- Title(参考訳): 多言語語彙単純化におけるTSAR-2022共有タスクの発見
- Authors: Horacio Saggion, Sanja \v{S}tajner, Daniel Ferr\'es, Kim Cheng Sheang,
Matthew Shardlow, Kai North, Marcos Zampieri
- Abstract要約: TSAR-2022共有タスクは、EMNLP 2022と共同で開催されたテキストの簡素化、アクセシビリティ、可読性に関するワークショップの一部として編成された。
自然言語処理研究コミュニティ(Natural Language Processing Research Community)と呼ばれるこの課題は、英語、ポルトガル語、スペイン語の多言語語彙の単純化において、芸術の状態を前進させる方法に貢献するものである。
共有タスクの結果は、英語の語彙的単純化による語彙的単純化の新しいベンチマークが、スペイン語や(ブラジル語)ポルトガル語よりも顕著に高い結果を示した。
- 参考スコア(独自算出の注目度): 12.33631648094732
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We report findings of the TSAR-2022 shared task on multilingual lexical
simplification, organized as part of the Workshop on Text Simplification,
Accessibility, and Readability TSAR-2022 held in conjunction with EMNLP 2022.
The task called the Natural Language Processing research community to
contribute with methods to advance the state of the art in multilingual lexical
simplification for English, Portuguese, and Spanish. A total of 14 teams
submitted the results of their lexical simplification systems for the provided
test data. Results of the shared task indicate new benchmarks in Lexical
Simplification with English lexical simplification quantitative results
noticeably higher than those obtained for Spanish and (Brazilian) Portuguese.
- Abstract(参考訳): テキストの簡略化,アクセシビリティ,可読性に関するワークショップ「TSAR-2022」の一環として,EMNLP 2022と共同で開催されている多言語語彙の簡略化に関するTSAR-2022共有タスクについて報告する。
このタスクは、自然言語処理研究コミュニティに、英語、ポルトガル語、スペイン語の多言語語彙化における芸術の状態を前進させる方法を提供するよう呼びかけた。
提供されたテストデータの語彙的単純化システムの結果を合計14チームが提出した。
共有タスクの結果は、英語の語彙単純化による語彙単純化の新しいベンチマークが、スペイン語や(ブラジル語)ポルトガル語よりも顕著に高い結果を示した。
関連論文リスト
- GenAI Content Detection Task 1: English and Multilingual Machine-Generated Text Detection: AI vs. Human [71.42669028683741]
我々は,Coling 2025におけるGenAIワークショップの一環として,バイナリマシン生成テキスト検出における共有タスクを提案する。
このタスクは、モノリンガル(英: Monolingual)とマルチリンガル(英: Multilingual)の2つのサブタスクから構成される。
本稿では,データの包括的概要,結果の概要,参加システムの詳細な説明,提出内容の詳細な分析について述べる。
論文 参考訳(メタデータ) (2025-01-19T11:11:55Z) - PromptRefine: Enhancing Few-Shot Performance on Low-Resource Indic Languages with Example Selection from Related Example Banks [57.86928556668849]
大規模言語モデル(LLM)は、近ごろ、コンテキスト内学習(ICL)を通じて、印象的な数ショットの学習能力を実証した。
ICLのパフォーマンスは、数発のデモの選択に大きく依存しており、最も最適な例の選択は永続的な研究課題である。
本稿では,低リソースのIndic言語におけるICLの性能向上を目的とした,新しい代替最小化手法であるPromptRefineを提案する。
論文 参考訳(メタデータ) (2024-12-07T17:51:31Z) - Findings of the IWSLT 2024 Evaluation Campaign [102.7608597658451]
本稿は、第21回IWSLT会議によって組織された共有タスクについて報告する。
共通タスクは、音声翻訳における7つの科学的課題に対処する。
論文 参考訳(メタデータ) (2024-11-07T19:11:55Z) - Findings of the 2023 ML-SUPERB Challenge: Pre-Training and Evaluation
over More Languages and Beyond [89.54151859266202]
2023年のMultilingual Speech Universal Performance Benchmark (ML-SUPERB) Challengeは、宣言されたSUPERBフレームワークに拡張される。
この挑戦は12のモデル提出と54の言語コーパスを集め、154の言語を含む包括的なベンチマークをもたらした。
この結果は、単にスケーリングモデルが多言語音声タスクにおける決定的な解決策ではないことを示唆している。
論文 参考訳(メタデータ) (2023-10-09T08:30:01Z) - UCAS-IIE-NLP at SemEval-2023 Task 12: Enhancing Generalization of
Multilingual BERT for Low-resource Sentiment Analysis [24.542445315345464]
本稿では,SemEval-2023 Task 12: Sentiment Analysis for African Languageについて述べる。
具体的には,語彙に基づく多言語BERTを設計し,言語適応と感情認識表現学習を容易にする。
提案システムは,多言語およびゼロショットの感情分類サブタスクにおいて,ベースラインをほぼ上回り,競争的な結果を得た。
論文 参考訳(メタデータ) (2023-06-01T19:10:09Z) - Revisiting non-English Text Simplification: A Unified Multilingual
Benchmark [14.891068432456262]
本稿では,12言語に170万以上の複雑な文対を含む27のリソースの集合であるMultiSimベンチマークを紹介する。
事前学習した多言語言語モデルを用いたMultiSimを用いた実験により,非英語環境での多言語学習によるエキサイティングな性能向上が示された。
論文 参考訳(メタデータ) (2023-05-25T03:03:29Z) - ComSL: A Composite Speech-Language Model for End-to-End Speech-to-Text
Translation [79.66359274050885]
公的な事前訓練された音声のみのモデルと言語のみのモデルからなる複合アーキテクチャ上に構築された音声言語モデルであるComSLを提案する。
提案手法は,エンドツーエンドの音声-テキスト翻訳タスクにおいて有効であることを示す。
論文 参考訳(メタデータ) (2023-05-24T07:42:15Z) - Efficiently Aligned Cross-Lingual Transfer Learning for Conversational
Tasks using Prompt-Tuning [98.60739735409243]
英語のような高リソース言語で訓練された言語モデルの言語間移動は、多くのNLPタスクのために広く研究されている。
並列および大規模多言語会話データセットである言語間アライメント事前学習のためのXSGDを導入する。
協調的な言語間表現を容易にするために,アライメントプロンプトを学習するための効率的なプロンプトチューニング手法を開発した。
論文 参考訳(メタデータ) (2023-04-03T18:46:01Z) - UniHD at TSAR-2022 Shared Task: Is Compute All We Need for Lexical
Simplification? [2.931632009516441]
GPT-3応答に基づくパイプラインを記述し、少数のトレーニングインスタンスで、幅広い設定で競合するアプローチを上回ります。
スペイン語とポルトガル語のサブセットを適用することで、従来のプロンプトに小さな変更を加えるだけで、最先端の結果が得られます。
論文 参考訳(メタデータ) (2023-01-04T18:59:20Z) - MANTIS at TSAR-2022 Shared Task: Improved Unsupervised Lexical
Simplification with Pretrained Encoders [31.64341800095214]
我々は,テキストの簡略化,アクセシビリティ,可読性に関するEMNLP 2022ワークショップの,語彙的単純化に関するTSAR-2022共有タスクへの貢献を紹介する。
我々のアプローチは、事前訓練エンコーダ(LSBert)システムを用いて、教師なし語彙単純化システムを構築し、拡張する。
当社のベストパフォーマンスシステムはLSBertの精度を5.9%向上し,33位中2位となった。
論文 参考訳(メタデータ) (2022-12-19T20:57:45Z) - Lexical Simplification Benchmarks for English, Portuguese, and Spanish [23.90236014260585]
英語,スペイン語,(ブラジル語)ポルトガル語の語彙単純化のための新しいベンチマークデータセットを提案する。
これは3つの言語の語彙的単純化システムを直接比較した最初のデータセットである。
最先端の神経語彙単純化システムは,3言語すべてで最先端の非神経語彙単純化システムより優れていた。
論文 参考訳(メタデータ) (2022-09-12T15:06:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。