論文の概要: UniHD at TSAR-2022 Shared Task: Is Compute All We Need for Lexical
Simplification?
- arxiv url: http://arxiv.org/abs/2301.01764v2
- Date: Thu, 5 Jan 2023 15:22:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-06 13:05:49.009236
- Title: UniHD at TSAR-2022 Shared Task: Is Compute All We Need for Lexical
Simplification?
- Title(参考訳): tsar-2022でのunihd共有タスク: 語彙の単純化に必要な計算は必要か?
- Authors: Dennis Aumiller and Michael Gertz
- Abstract要約: GPT-3応答に基づくパイプラインを記述し、少数のトレーニングインスタンスで、幅広い設定で競合するアプローチを上回ります。
スペイン語とポルトガル語のサブセットを適用することで、従来のプロンプトに小さな変更を加えるだけで、最先端の結果が得られます。
- 参考スコア(独自算出の注目度): 2.931632009516441
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Previous state-of-the-art models for lexical simplification consist of
complex pipelines with several components, each of which requires deep
technical knowledge and fine-tuned interaction to achieve its full potential.
As an alternative, we describe a frustratingly simple pipeline based on
prompted GPT-3 responses, beating competing approaches by a wide margin in
settings with few training instances. Our best-performing submission to the
English language track of the TSAR-2022 shared task consists of an ``ensemble''
of six different prompt templates with varying context levels. As a
late-breaking result, we further detail a language transfer technique that
allows simplification in languages other than English. Applied to the Spanish
and Portuguese subset, we achieve state-of-the-art results with only minor
modification to the original prompts. Aside from detailing the implementation
and setup, we spend the remainder of this work discussing the particularities
of prompting and implications for future work. Code for the experiments is
available online at https://github.com/dennlinger/TSAR-2022-Shared-Task
- Abstract(参考訳): 辞書の単純化に関するこれまでの最先端のモデルは、複雑なパイプラインと複数のコンポーネントで構成されており、それぞれに深い技術知識と微調整されたインタラクションが必要である。
代替として、引き起こされたGPT-3応答に基づくフラストレーションに富んだ単純なパイプラインを記述し、少数のトレーニングインスタンスで競合するアプローチをはるかに上回った。
TSAR-2022共有タスクの英語トラックへの最も優れた提案は、異なる文脈レベルを持つ6種類のプロンプトテンプレートの '`ensemble''' からなる。
遅れの結果として、英語以外の言語を単純化する言語転送手法をさらに詳細に述べる。
スペイン語とポルトガル語のサブセットに適用すると、元のプロンプトにわずかな修正を加えるだけで最新の結果が得られる。
実装とセットアップの詳細は別として、この作業の残りは、今後の作業の促進と意味を議論する作業に費やしています。
実験用コードはhttps://github.com/dennlinger/TSAR-2022-Shared-Taskで公開されている。
関連論文リスト
- Rethinking and Improving Multi-task Learning for End-to-end Speech
Translation [51.713683037303035]
異なる時間とモジュールを考慮したタスク間の整合性について検討する。
テキストエンコーダは、主にクロスモーダル変換を容易にするが、音声におけるノイズの存在は、テキストと音声表現の一貫性を妨げる。
長さと表現の差を軽減し,モーダルギャップを橋渡しする,STタスクのための改良型マルチタスク学習(IMTL)手法を提案する。
論文 参考訳(メタデータ) (2023-11-07T08:48:46Z) - ComSL: A Composite Speech-Language Model for End-to-End Speech-to-Text
Translation [79.66359274050885]
公的な事前訓練された音声のみのモデルと言語のみのモデルからなる複合アーキテクチャ上に構築された音声言語モデルであるComSLを提案する。
提案手法は,エンドツーエンドの音声-テキスト翻訳タスクにおいて有効であることを示す。
論文 参考訳(メタデータ) (2023-05-24T07:42:15Z) - A Study on the Integration of Pipeline and E2E SLU systems for Spoken
Semantic Parsing toward STOP Quality Challenge [33.89616011003973]
本稿では,音声言語理解グランドチャレンジにおける品質トラック(トラック1)のための音声意味解析システムについて述べる。
Whisperのような強自動音声認識(ASR)モデルとBARTのような事前訓練言語モデル(LM)は、我々のSLUフレームワーク内で利用され、性能が向上する。
また,各モデルの出力レベルの組み合わせについて,精度80.8の精度で検討し,第1位を獲得した。
論文 参考訳(メタデータ) (2023-05-02T17:25:19Z) - Findings of the TSAR-2022 Shared Task on Multilingual Lexical
Simplification [12.33631648094732]
TSAR-2022共有タスクは、EMNLP 2022と共同で開催されたテキストの簡素化、アクセシビリティ、可読性に関するワークショップの一部として編成された。
自然言語処理研究コミュニティ(Natural Language Processing Research Community)と呼ばれるこの課題は、英語、ポルトガル語、スペイン語の多言語語彙の単純化において、芸術の状態を前進させる方法に貢献するものである。
共有タスクの結果は、英語の語彙的単純化による語彙的単純化の新しいベンチマークが、スペイン語や(ブラジル語)ポルトガル語よりも顕著に高い結果を示した。
論文 参考訳(メタデータ) (2023-02-06T15:53:51Z) - Lexical Simplification using multi level and modular approach [1.9559144041082446]
本稿では、我々のチーム「teamPN」による英語サブタスクの作業について説明する。
我々は,現代のトランスフォーマーモデルと従来のNLP手法を組み合わせたモジュールパイプラインを構築した。
論文 参考訳(メタデータ) (2023-02-03T15:57:54Z) - MANTIS at TSAR-2022 Shared Task: Improved Unsupervised Lexical
Simplification with Pretrained Encoders [31.64341800095214]
我々は,テキストの簡略化,アクセシビリティ,可読性に関するEMNLP 2022ワークショップの,語彙的単純化に関するTSAR-2022共有タスクへの貢献を紹介する。
我々のアプローチは、事前訓練エンコーダ(LSBert)システムを用いて、教師なし語彙単純化システムを構築し、拡張する。
当社のベストパフォーマンスシステムはLSBertの精度を5.9%向上し,33位中2位となった。
論文 参考訳(メタデータ) (2022-12-19T20:57:45Z) - LASP: Text-to-Text Optimization for Language-Aware Soft Prompting of
Vision & Language Models [67.19124099815645]
ベースクラスオーバーフィットを軽減するために,Language-Aware Soft Prompting (LASP) 学習手法を提案する。
LASPは本質的に、トレーニング中に仮想クラス、すなわちビジュアルサンプルが使用できないクラス名を含むことができる。
LASPは、手作りのプロンプトとCLIPによる11のテストデータセットのうち8つの新しいクラスの精度が初めて一致し、上回っている。
論文 参考訳(メタデータ) (2022-10-03T17:56:35Z) - FST: the FAIR Speech Translation System for the IWSLT21 Multilingual
Shared Task [36.51221186190272]
IWSLT 2021評価キャンペーンに提出したエンドツーエンドの多言語音声翻訳システムについて述べる。
本システムは,モダリティ,タスク,言語間の伝達学習を活用して構築する。
論文 参考訳(メタデータ) (2021-07-14T19:43:44Z) - "Listen, Understand and Translate": Triple Supervision Decouples
End-to-end Speech-to-text Translation [49.610188741500274]
エンドツーエンドの音声テキスト翻訳(ST)は、ソース言語で音声を取り、ターゲット言語でテキストを出力する。
既存の方法は並列コーパスの量によって制限される。
並列STコーパスで信号を完全に活用するシステムを構築した。
論文 参考訳(メタデータ) (2020-09-21T09:19:07Z) - Abstractive Summarization of Spoken and Written Instructions with BERT [66.14755043607776]
本稿では,BERTSumモデルの最初の対話型言語への応用について述べる。
我々は多種多様な話題にまたがるナレーションビデオの抽象要約を生成する。
我々は、これをインテリジェントな仮想アシスタントの機能として統合し、要求に応じて文字と音声の両方の指導内容の要約を可能にすることを想定する。
論文 参考訳(メタデータ) (2020-08-21T20:59:34Z) - BURT: BERT-inspired Universal Representation from Twin Structure [89.82415322763475]
BURT (BERT inspired Universal Representation from Twin Structure) は任意の粒度の入力シーケンスに対して普遍的で固定サイズの表現を生成することができる。
提案するBURTは,Siameseネットワークを採用し,自然言語推論データセットから文レベル表現を学習し,パラフレーズ化データセットから単語/フレーズレベル表現を学習する。
我々は,STSタスク,SemEval2013 Task 5(a) など,テキスト類似性タスクの粒度によってBURTを評価する。
論文 参考訳(メタデータ) (2020-04-29T04:01:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。