論文の概要: IITK@LCP at SemEval 2021 Task 1: Classification for Lexical Complexity
Regression Task
- arxiv url: http://arxiv.org/abs/2104.01046v1
- Date: Fri, 2 Apr 2021 13:40:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-05 13:55:03.173282
- Title: IITK@LCP at SemEval 2021 Task 1: Classification for Lexical Complexity
Regression Task
- Title(参考訳): IITK@LCP at SemEval 2021 Task 1: Classification for Lexical Complexity Regression Task (英語)
- Authors: Neil Rajiv Shirude, Sagnik Mukherjee, Tushar Shandhilya, Ananta
Mukherjee, Ashutosh Modi
- Abstract要約: 我々はELECTRAモデルを活用し、データアノテーションスキームのミラー化を試みる。
このやや反直感的なアプローチは、サブタスク1では0.0654、サブタスク2では0.0811のMAEを達成した。
- 参考スコア(独自算出の注目度): 1.5952305322416085
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This paper describes our contribution to SemEval 2021 Task 1: Lexical
Complexity Prediction. In our approach, we leverage the ELECTRA model and
attempt to mirror the data annotation scheme. Although the task is a regression
task, we show that we can treat it as an aggregation of several classification
and regression models. This somewhat counter-intuitive approach achieved an MAE
score of 0.0654 for Sub-Task 1 and MAE of 0.0811 on Sub-Task 2. Additionally,
we used the concept of weak supervision signals from Gloss-BERT in our work,
and it significantly improved the MAE score in Sub-Task 1.
- Abstract(参考訳): 本稿では,SemEval 2021 Task 1: Lexical Complexity Predictionへの貢献について述べる。
提案手法では,ELECTRAモデルを活用し,データアノテーションスキームのミラー化を試みる。
タスクは回帰タスクであるが、いくつかの分類と回帰モデルの集合として扱うことができることを示す。
このやや逆直観的なアプローチは、サブタスク1では0.0654、サブタスク2では0.0811のMAEスコアを達成した。
さらに,Gross-BERTの弱い監視信号の概念を用いて,サブタスク1におけるMAEスコアを大幅に改善した。
関連論文リスト
- Interpetable Target-Feature Aggregation for Multi-Task Learning based on Bias-Variance Analysis [53.38518232934096]
マルチタスク学習(MTL)は、タスク間の共有知識を活用し、一般化とパフォーマンスを改善するために設計された強力な機械学習パラダイムである。
本稿では,タスククラスタリングと特徴変換の交点におけるMTL手法を提案する。
両段階において、鍵となる側面は減った目標と特徴の解釈可能性を維持することである。
論文 参考訳(メタデータ) (2024-06-12T08:30:16Z) - The All-Seeing Project V2: Towards General Relation Comprehension of the Open World [58.40101895719467]
本稿では,画像のオブジェクト関係を理解するために設計された新しいモデルとデータセットであるAll-Seeing Project V2を紹介する。
本稿では,テキスト生成,オブジェクトローカライゼーション,関係理解の定式化を関係会話タスクに統合するAll-Seeing Model V2を提案する。
我々のモデルは、画像内の全ての物体を知覚・認識するだけでなく、それらの間の複雑な関係グラフの把握にも優れている。
論文 参考訳(メタデータ) (2024-02-29T18:59:17Z) - USER: Unified Semantic Enhancement with Momentum Contrast for Image-Text
Retrieval [115.28586222748478]
Image-Text Retrieval (ITR) は、与えられたクエリに意味のあるターゲットインスタンスを、他のモダリティから検索することを目的としている。
既存のアプローチは通常、2つの大きな制限に悩まされる。
論文 参考訳(メタデータ) (2023-01-17T12:42:58Z) - UU-Tax at SemEval-2022 Task 3: Improving the generalizability of
language models for taxonomy classification through data augmentation [0.0]
本稿では,SemEval-2022 Task 3 PreTENS: Presuposed Taxonomies Evaluation Neural Network Semanticsについて述べる。
タスクの目標は、文に含まれる名詞対の間の分類学的関係によって、ある文が受け入れられているか否かを識別することである。
より優れた分類のための言語モデルの堅牢性と一般化性を高める効果的な方法を提案する。
論文 参考訳(メタデータ) (2022-10-07T07:41:28Z) - RoBLEURT Submission for the WMT2021 Metrics Task [72.26898579202076]
本稿では,共有メトリクスタスクであるRoBLEURTについて紹介する。
我々のモデルは10対の英語言語対のうち8対でWMT 2020の人間のアノテーションと最先端の相関に達する。
論文 参考訳(メタデータ) (2022-04-28T08:49:40Z) - Team Enigma at ArgMining-EMNLP 2021: Leveraging Pre-trained Language
Models for Key Point Matching [0.0]
本稿では,ArgMining 2021におけるキーポイント分析共有タスクへのシステム記述について述べる。
入力(トピック、キーポイント、引数)から抽出した追加データや特徴を組み込んで、パフォーマンスを向上させるとともに、事前訓練された言語モデルの既存の状態を活用しました。
評価フェーズでは,mAP厳格化,mAP緩和スコアが0.872,0.966となり,リーダーボードでは5位となった。
論文 参考訳(メタデータ) (2021-10-24T07:10:39Z) - TAPAS at SemEval-2021 Task 9: Reasoning over tables with intermediate
pre-training [3.0079490585515343]
文が中性か非中性かを予測する第1のモデルと、それに関連するか反感があるかを予測する第2のモデルである。
人工ニュートラルな例は、最初のモデルのトレーニングにやや効果的であり、過半数のベースラインの60.47に対して68.03テストF1を達成している。
論文 参考訳(メタデータ) (2021-04-02T15:47:08Z) - Task Aligned Generative Meta-learning for Zero-shot Learning [64.16125851588437]
ゼロショット学習のためのタスク整合型ジェネラティブメタラーニングモデル(TGMZ)の提案
TGMZはバイアスのあるトレーニングを緩和し、メタZSLが多様な分布を含む現実世界のデータセットに対応できるようにする。
最先端アルゴリズムとの比較により,awa1,awa2,cub,apyデータセット上でtgmzが達成した2.1%,3.0%,2.5%,7.6%の改善が示された。
論文 参考訳(メタデータ) (2021-03-03T05:18:36Z) - Revisiting LSTM Networks for Semi-Supervised Text Classification via
Mixed Objective Function [106.69643619725652]
我々は,単純なBiLSTMモデルであっても,クロスエントロピー損失でトレーニングした場合に,競争的な結果が得られるようなトレーニング戦略を開発する。
いくつかのベンチマークデータセット上で,テキスト分類タスクの最先端結果について報告する。
論文 参考訳(メタデータ) (2020-09-08T21:55:22Z) - ERNIE at SemEval-2020 Task 10: Learning Word Emphasis Selection by
Pre-trained Language Model [18.41476971318978]
本稿では,SemEval-2020 Task 10: Emphasis Selection for Written Text in Visual Mediaにおいて,ERNIE Teamによって設計されたシステムについて述べる。
教師なし事前学習モデルを活用し、これらのモデルをタスクで微調整します。
我々の最良のモデルは0.823の最高スコアを達成し、あらゆる種類の指標で第1位となる。
論文 参考訳(メタデータ) (2020-09-08T12:51:22Z) - Yseop at SemEval-2020 Task 5: Cascaded BERT Language Model for
Counterfactual Statement Analysis [0.0]
我々は、分類タスクにBERTベースモデルを使用し、シーケンス識別タスクを処理するために、ハイブリッドBERTマルチ層パーセプトロンシステムを構築した。
本実験により, 構文的・意味的特徴の導入は, 分類タスクにおけるシステム改善にはほとんど寄与しないが, それらの特徴を線形入力として用いて, モデルのシーケンス決定能力を微調整することにより, 2次タスクにおいてBiLSTM-CRFのような他の類似の複雑なシステムよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-05-18T08:19:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。