論文の概要: niksss at HinglishEval: Language-agnostic BERT-based Contextual
Embeddings with Catboost for Quality Evaluation of the Low-Resource
Synthetically Generated Code-Mixed Hinglish Text
- arxiv url: http://arxiv.org/abs/2206.08910v1
- Date: Fri, 17 Jun 2022 17:36:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-20 14:08:23.015432
- Title: niksss at HinglishEval: Language-agnostic BERT-based Contextual
Embeddings with Catboost for Quality Evaluation of the Low-Resource
Synthetically Generated Code-Mixed Hinglish Text
- Title(参考訳): niksss at hinglisheval: 言語に依存しないbertに基づくcatboostを用いたコンテキスト埋め込みによる低リソース合成hinglishテキストの品質評価
- Authors: Nikhil Singh
- Abstract要約: 本稿では,INLG 2022におけるHinglishEvalチャレンジのシステム記述について述べる。
本研究の目的は,コード混合テキスト生成システムの品質に影響を及ぼす要因について検討することであった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper describes the system description for the HinglishEval challenge at
INLG 2022. The goal of this task was to investigate the factors influencing the
quality of the code-mixed text generation system. The task was divided into two
subtasks, quality rating prediction and annotators disagreement prediction of
the synthetic Hinglish dataset. We attempted to solve these tasks using
sentence-level embeddings, which are obtained from mean pooling the
contextualized word embeddings for all input tokens in our text. We
experimented with various classifiers on top of the embeddings produced for
respective tasks. Our best-performing system ranked 1st on subtask B and 3rd on
subtask A.
- Abstract(参考訳): 本稿では inlg 2022 における hinglisheval challenge のシステム記述について述べる。
本研究の目的は,コード混合テキスト生成システムの品質に影響を及ぼす要因を検討することである。
このタスクは2つのサブタスク、品質評価予測とアノテータの不一致予測に分割された。
テキスト中のすべての入力トークンに対してコンテキスト化された単語埋め込みを平均プールすることで得られる文レベルの埋め込みを用いて,これらのタスクを解決しようと試みた。
それぞれのタスクで生成された埋め込みの上に様々な分類器を実験した。
ベストパフォーマンスシステムはサブタスクBで1位,サブタスクAで3位であった。
関連論文リスト
- BERT or FastText? A Comparative Analysis of Contextual as well as Non-Contextual Embeddings [0.4194295877935868]
埋め込みの選択は、NLPタスクのパフォーマンス向上に重要な役割を果たす。
本研究では,Marathi言語固有のNLP分類タスクに,コンテキストBERTベース,非コンテキストBERTベース,FastTextベースの様々な埋め込み技術が与える影響について検討する。
論文 参考訳(メタデータ) (2024-11-26T18:25:57Z) - Unify word-level and span-level tasks: NJUNLP's Participation for the
WMT2023 Quality Estimation Shared Task [59.46906545506715]
我々は、WMT 2023 Quality Estimation (QE)共有タスクにNJUNLPチームを紹介する。
私たちのチームは2つのサブタスクすべてで英語とドイツ語のペアの予測を提出しました。
我々のモデルは、単語レベルと細粒度エラースパン検出サブタスクの両方において、英語とドイツ語で最高の結果を得た。
論文 参考訳(メタデータ) (2023-09-23T01:52:14Z) - HIT-SCIR at MMNLU-22: Consistency Regularization for Multilingual Spoken
Language Understanding [56.756090143062536]
本稿では,ハイブリッドデータ拡張戦略に基づく一貫性の正則化を提案する。
フルデータセットとゼロショット設定の両方で、MASSIVEデータセット上で実験を行う。
提案手法はインテント検出とスロット充足の両方の性能を向上させる。
論文 参考訳(メタデータ) (2023-01-05T11:21:15Z) - SESCORE2: Learning Text Generation Evaluation via Synthesizing Realistic
Mistakes [93.19166902594168]
テキスト生成評価のためのモデルベースメトリックを学習するための自己教師型アプローチSESCORE2を提案する。
鍵となる概念は、コーパスから取得した文を摂動することで、現実的なモデルミスを合成することである。
3言語にわたる4つのテキスト生成タスクにおいて,SESCORE2とそれ以前の手法を評価する。
論文 参考訳(メタデータ) (2022-12-19T09:02:16Z) - Findings of the The RuATD Shared Task 2022 on Artificial Text Detection
in Russian [6.9244605050142995]
2022年に行われた対話評価イニシアチブの一環として組織されたロシア語における人工テキスト検出の共有タスクについて紹介する。
このデータセットには14のテキストジェネレータ、すなわち1人の人間ライターと13のテキスト生成モデルからのテキストが含まれている。
人書きのテキストは、複数のドメインにわたる公開リソースから収集される。
論文 参考訳(メタデータ) (2022-06-03T14:12:33Z) - drsphelps at SemEval-2022 Task 2: Learning idiom representations using
BERTRAM [0.0]
各イディオムに埋め込みを追加することで、標準BERT変換器を変更する。
本稿では,この手法により表現の質が向上し,タスクの性能が向上することを示す。
論文 参考訳(メタデータ) (2022-04-06T13:32:37Z) - Quality Evaluation of the Low-Resource Synthetically Generated
Code-Mixed Hinglish Text [1.6675267471157407]
コードミキシングされたHinglish文を2つの異なるアプローチで合成する。
私たちは世代品質を評価するために人間アノテータを使用します。
論文 参考訳(メタデータ) (2021-08-04T06:02:46Z) - Automated Concatenation of Embeddings for Structured Prediction [75.44925576268052]
本稿では, 埋め込みの自動結合(ACE)を提案し, 構造予測タスクにおける埋め込みのより優れた結合を見つけるプロセスを自動化する。
我々は、強化学習の戦略に従い、制御器のパラメータを最適化し、タスクモデルの精度に基づいて報酬を計算する。
論文 参考訳(メタデータ) (2020-10-10T14:03:20Z) - Abstractive Summarization of Spoken and Written Instructions with BERT [66.14755043607776]
本稿では,BERTSumモデルの最初の対話型言語への応用について述べる。
我々は多種多様な話題にまたがるナレーションビデオの抽象要約を生成する。
我々は、これをインテリジェントな仮想アシスタントの機能として統合し、要求に応じて文字と音声の両方の指導内容の要約を可能にすることを想定する。
論文 参考訳(メタデータ) (2020-08-21T20:59:34Z) - RUSSE'2020: Findings of the First Taxonomy Enrichment Task for the
Russian language [70.27072729280528]
本稿では,ロシア語の分類学的豊か化に関する最初の共有課題の結果について述べる。
16チームがこのタスクに参加し、半数以上が提供されたベースラインを上回った。
論文 参考訳(メタデータ) (2020-05-22T13:30:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。