論文の概要: BigGreen at SemEval-2021 Task 1: Lexical Complexity Prediction with
Assembly Models
- arxiv url: http://arxiv.org/abs/2104.09040v1
- Date: Mon, 19 Apr 2021 04:05:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-20 14:40:40.352361
- Title: BigGreen at SemEval-2021 Task 1: Lexical Complexity Prediction with
Assembly Models
- Title(参考訳): SemEval-2021 Task 1: アセンブリモデルによる語彙複雑度予測
- Authors: Aadil Islam, Weicheng Ma, Soroush Vosoughi
- Abstract要約: 本稿では,与えられた文脈における英単語の語彙的複雑性を予測するために,BigGreen チームが 2021 に提出したシステムについて述べる。
BERTを基盤としたディープニューラルネットワークモデルにより、機能工学に基づくモデルを組み立てます。
我々の手工芸品の特徴は、語彙、意味、構文、および新しい音韻学的尺度からなる。
- 参考スコア(独自算出の注目度): 2.4815579733050153
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This paper describes a system submitted by team BigGreen to LCP 2021 for
predicting the lexical complexity of English words in a given context. We
assemble a feature engineering-based model with a deep neural network model
founded on BERT. While BERT itself performs competitively, our feature
engineering-based model helps in extreme cases, eg. separating instances of
easy and neutral difficulty. Our handcrafted features comprise a breadth of
lexical, semantic, syntactic, and novel phonological measures. Visualizations
of BERT attention maps offer insight into potential features that Transformers
models may learn when fine-tuned for lexical complexity prediction. Our
ensembled predictions score reasonably well for the single word subtask, and we
demonstrate how they can be harnessed to perform well on the multi word
expression subtask too.
- Abstract(参考訳): 本稿では,チームBigGreen が LCP 2021 に提案した,ある文脈における英語単語の語彙的複雑さを予測するシステムについて述べる。
BERT上に構築されたディープニューラルネットワークモデルを用いて,機能エンジニアリングベースのモデルを組み立てる。
BERT自体は競争力がありますが、私たちの機能エンジニアリングベースのモデルは極端な場合、例えば、役に立ちます。
簡単で中立的な困難を 切り離すことです
我々の手工芸品の特徴は、語彙、意味、構文、および新しい音韻学的尺度からなる。
BERTアテンションマップの可視化は、Transformersモデルが語彙複雑性予測のために微調整した時に学習する可能性のある潜在的な機能についての洞察を提供する。
一つの単語のサブタスクに対して,組み合わされた予測は合理的に評価され,マルチワードのサブタスクでもうまく機能することを示す。
関連論文リスト
- A Large-Scale Evaluation of Speech Foundation Models [110.95827399522204]
音声処理ユニバーサルパフォーマンスベンチマーク(SUPERB)を構築し,基礎モデルパラダイムの有効性について検討する。
凍結基盤モデルを用いてSUPERBにおける音声処理タスクに対処する統合マルチタスクフレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-15T00:03:16Z) - Split and Rephrase with Large Language Models [2.499907423888049]
Split and Rephrase (SPRP) タスクは、複雑な文を短い文法文の列に分割する。
タスク上の大きな言語モデルを評価し、主要なメトリクスに基づいて、技術の現状を大幅に改善できることを示します。
論文 参考訳(メタデータ) (2023-12-18T10:16:37Z) - Does BERT really agree ? Fine-grained Analysis of Lexical Dependence on
a Syntactic Task [70.29624135819884]
目的の構文テンプレート上で,BERTが語彙非依存の主観値数アグリーメント(NA)を実行できる範囲について検討した。
名詞文では,単純なテンプレートに対してモデルがよく一般化されるが,1つのアトラクターが存在する場合,語彙非依存の構文一般化を行うことができないことが示唆された。
論文 参考訳(メタデータ) (2022-04-14T11:33:15Z) - Inducing Transformer's Compositional Generalization Ability via
Auxiliary Sequence Prediction Tasks [86.10875837475783]
体系的な構成性は人間の言語において必須のメカニズムであり、既知の部品の組換えによって新しい表現を作り出すことができる。
既存のニューラルモデルには、記号構造を学習する基本的な能力がないことが示されている。
本稿では,関数の進行と引数のセマンティクスを追跡する2つの補助シーケンス予測タスクを提案する。
論文 参考訳(メタデータ) (2021-09-30T16:41:19Z) - OCHADAI-KYODAI at SemEval-2021 Task 1: Enhancing Model Generalization
and Robustness for Lexical Complexity Prediction [8.066349353140819]
単語とマルチワード表現の語彙的複雑性を予測するアンサンブルモデルを提案する。
モデルは、目的語またはMWEandの文を入力として受信し、その複雑性スコアを出力する。
本モデルは,両サブタスクの上位10システムにランクインした。
論文 参考訳(メタデータ) (2021-05-12T09:27:46Z) - Masked Language Modeling and the Distributional Hypothesis: Order Word
Matters Pre-training for Little [74.49773960145681]
マスク言語モデル(MLM)トレーニングの印象的なパフォーマンスの可能な説明は、そのようなモデルがNLPパイプラインで広く普及している構文構造を表現することを学びました。
本稿では,先行訓練がダウンストリームタスクでほぼ完全に成功する理由として,高次単語共起統計をモデル化できることを挙げる。
以上の結果から,純粋分布情報は,事前学習の成功を主に説明し,深い言語知識を必要とする難易度評価データセットのキュレーションの重要性を強調する。
論文 参考訳(メタデータ) (2021-04-14T06:30:36Z) - Syntactic Structure Distillation Pretraining For Bidirectional Encoders [49.483357228441434]
本稿では,BERTプレトレーニングに構文バイアスを注入するための知識蒸留手法を提案する。
我々は,構文的 LM から単語の周辺分布を抽出する。
本研究は,大量のデータを利用する表現学習者においても,構文バイアスの利点を示すものである。
論文 参考訳(メタデータ) (2020-05-27T16:44:01Z) - Improve Variational Autoencoder for Text Generationwith Discrete Latent
Bottleneck [52.08901549360262]
変分オートエンコーダ(VAE)は、エンドツーエンドの表現学習において必須のツールである。
VAEは強い自己回帰デコーダで潜伏変数を無視する傾向がある。
よりコンパクトな潜在空間において暗黙的な潜在特徴マッチングを強制する原理的アプローチを提案する。
論文 参考訳(メタデータ) (2020-04-22T14:41:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。