論文の概要: UPB at SemEval-2021 Task 1: Combining Deep Learning and Hand-Crafted
Features for Lexical Complexity Prediction
- arxiv url: http://arxiv.org/abs/2104.06983v1
- Date: Wed, 14 Apr 2021 17:05:46 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-15 14:44:07.932036
- Title: UPB at SemEval-2021 Task 1: Combining Deep Learning and Hand-Crafted
Features for Lexical Complexity Prediction
- Title(参考訳): UPB at SemEval-2021 Task 1: 語彙複雑度予測のための深層学習と手作り特徴の組み合わせ
- Authors: George-Eduard Zaharia, Dumitru-Clementin Cercel, Mihai Dascalu
- Abstract要約: 本稿では,SemEval-2021 Task 1: Lexical Complexity Prediction competitionについて述べる。
私たちの結果は、第1および第2サブタスクの競争で得られたトップスコアよりもわずか5.46%と6.5%低いです。
- 参考スコア(独自算出の注目度): 0.7197592390105455
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Reading is a complex process which requires proper understanding of texts in
order to create coherent mental representations. However, comprehension
problems may arise due to hard-to-understand sections, which can prove
troublesome for readers, while accounting for their specific language skills.
As such, steps towards simplifying these sections can be performed, by
accurately identifying and evaluating difficult structures. In this paper, we
describe our approach for the SemEval-2021 Task 1: Lexical Complexity
Prediction competition that consists of a mixture of advanced NLP techniques,
namely Transformer-based language models, pre-trained word embeddings, Graph
Convolutional Networks, Capsule Networks, as well as a series of hand-crafted
textual complexity features. Our models are applicable on both subtasks and
achieve good performance results, with a MAE below 0.07 and a Person
correlation of .73 for single word identification, as well as a MAE below 0.08
and a Person correlation of .79 for multiple word targets. Our results are just
5.46% and 6.5% lower than the top scores obtained in the competition on the
first and the second subtasks, respectively.
- Abstract(参考訳): 読みは複雑なプロセスであり、コヒーレントな心的表現を作り出すためにテキストの適切な理解を必要とする。
しかし、理解の難しいセクションが、特定の言語スキルを考慮しながら読者にとって厄介な問題となるため、理解上の問題が生じる可能性がある。
このように、難しい構造を正確に同定し、評価することにより、これらのセクションを単純化するためのステップを実行できる。
本稿では,SemEval-2021 Task 1: Lexical Complexity Prediction competitionという,トランスフォーマーベース言語モデル,事前学習語埋め込み,グラフ畳み込みネットワーク,カプセルネットワークなど,高度なNLP技術を組み合わせたコンペティションについて述べる。
本モデルは両サブタスクに適用可能で,0.07未満のmae,単一単語識別の.73,0.08未満のmae,複数単語ターゲットの.79のperson相関を持つ。
第1のサブタスクと第2のサブタスクのコンペティションで得られたトップスコアより、それぞれ5.46%と6.5%低い結果でした。
関連論文リスト
- SOUL: Towards Sentiment and Opinion Understanding of Language [96.74878032417054]
我々は、言語感覚とオピニオン理解(SOUL)と呼ばれる新しいタスクを提案する。
SOULは2つのサブタスクを通して感情理解を評価することを目的としている:レビュー(RC)と正当化生成(JG)。
論文 参考訳(メタデータ) (2023-10-27T06:48:48Z) - Text Classification via Large Language Models [63.1874290788797]
テキスト分類に関わる複雑な言語現象に対処するために、Clue And Reasoning Prompting (CARP)を導入する。
注目すべきは、CARPが5つの広く使用されているテキスト分類ベンチマークのうち4つで新しいSOTAパフォーマンスを得ることだ。
さらに重要なのは、CARPが低リソースとドメイン適応のセットアップで素晴らしい能力を提供します。
論文 参考訳(メタデータ) (2023-05-15T06:24:45Z) - Lexical Complexity Prediction: An Overview [13.224233182417636]
テキスト中の未知の単語の発生は、読書の理解を著しく妨げている。
計算モデリングは、テキスト中の複雑な単語を識別し、より単純な代替語に置き換えるために応用されている。
本稿では,英文データに基づく語彙複雑性予測に対する計算手法の概要について述べる。
論文 参考訳(メタデータ) (2023-03-08T19:35:08Z) - Prompt-based Learning for Text Readability Assessment [0.4757470449749875]
可読性評価のための事前学習されたSeq2seqモデルの新規適応を提案する。
与えられた2つのテキストからより難しいテキストを区別するために、Seq2seqモデルを適用できることを実証する。
論文 参考訳(メタデータ) (2023-02-25T18:39:59Z) - Effective Cross-Task Transfer Learning for Explainable Natural Language
Inference with T5 [50.574918785575655]
2つのタスクのパフォーマンス向上という文脈において、逐次微調整とマルチタスク学習のモデルを比較した。
この結果から,2つのタスクのうち,第1のタスクにおいて逐次マルチタスク学習は良好に調整できるが,第2のタスクでは性能が低下し,過度な適合に苦しむことが明らかとなった。
論文 参考訳(メタデータ) (2022-10-31T13:26:08Z) - LCP-RIT at SemEval-2021 Task 1: Exploring Linguistic Features for
Lexical Complexity Prediction [4.86331990243181]
本稿では,チームLCP-RITによるSemEval-2021 Task 1: Lexical Complexity Prediction (LCP)の提出について述べる。
本システムでは,ロジスティック回帰と幅広い言語的特徴を用いて,このデータセットにおける単一単語の複雑さを予測する。
結果は平均絶対誤差,平均二乗誤差,ピアソン相関,スピアマン相関で評価した。
論文 参考訳(メタデータ) (2021-05-18T18:55:04Z) - BigGreen at SemEval-2021 Task 1: Lexical Complexity Prediction with
Assembly Models [2.4815579733050153]
本稿では,与えられた文脈における英単語の語彙的複雑性を予測するために,BigGreen チームが 2021 に提出したシステムについて述べる。
BERTを基盤としたディープニューラルネットワークモデルにより、機能工学に基づくモデルを組み立てます。
我々の手工芸品の特徴は、語彙、意味、構文、および新しい音韻学的尺度からなる。
論文 参考訳(メタデータ) (2021-04-19T04:05:50Z) - UPB at SemEval-2021 Task 7: Adversarial Multi-Task Learning for
Detecting and Rating Humor and Offense [0.6404122934568858]
本稿では, 敵のマルチタスクネットワークであるAMTL-Humorを用いて, ユーモアや攻撃的テキストの検出と評価を行う。
私達の最もよいモデルはすべてのテストされた構成のアンサンブルから成り、95.66% F1スコアおよびタスク1aのための94.70%の正確さを達成します。
論文 参考訳(メタデータ) (2021-04-13T09:59:05Z) - ERICA: Improving Entity and Relation Understanding for Pre-trained
Language Models via Contrastive Learning [97.10875695679499]
そこで本研究では, ERICA という新たなコントラスト学習フレームワークを提案し, エンティティとその関係をテキストでより深く理解する。
実験の結果,提案する erica フレームワークは文書レベルの言語理解タスクにおいて一貫した改善を実現することがわかった。
論文 参考訳(メタデータ) (2020-12-30T03:35:22Z) - Lexically-constrained Text Generation through Commonsense Knowledge
Extraction and Injection [62.071938098215085]
我々は、ある入力概念のセットに対して妥当な文を生成することを目的としているcommongenベンチマークに焦点を当てる。
生成したテキストの意味的正しさを高めるための戦略を提案する。
論文 参考訳(メタデータ) (2020-12-19T23:23:40Z) - Syntactic Structure Distillation Pretraining For Bidirectional Encoders [49.483357228441434]
本稿では,BERTプレトレーニングに構文バイアスを注入するための知識蒸留手法を提案する。
我々は,構文的 LM から単語の周辺分布を抽出する。
本研究は,大量のデータを利用する表現学習者においても,構文バイアスの利点を示すものである。
論文 参考訳(メタデータ) (2020-05-27T16:44:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。