論文の概要: BRUMS at SemEval-2020 Task 3: Contextualised Embeddings for Predicting
the (Graded) Effect of Context in Word Similarity
- arxiv url: http://arxiv.org/abs/2010.06269v2
- Date: Thu, 20 May 2021 14:44:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 22:46:02.299888
- Title: BRUMS at SemEval-2020 Task 3: Contextualised Embeddings for Predicting
the (Graded) Effect of Context in Word Similarity
- Title(参考訳): SemEval-2020 Task 3:Contextualized Embeddings for Predicting the (Graded) Effect of Context in Word similarity (英語)
- Authors: Hansi Hettiarachchi, Tharindu Ranasinghe
- Abstract要約: 本稿では,SemEval-2020 Task 3: Graded Word similarity in Contextを提案する。
このシステムは、スタックド埋め込みや平均埋め込みなど、タスク固有の適応を持つ、最先端の文脈化された単語埋め込みを利用する。
最終ランキングに従えば、我々のアプローチはフィンランドのサブタスク2の1位を維持しながら、各言語の上位5のソリューションにランクインする。
- 参考スコア(独自算出の注目度): 9.710464466895521
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents the team BRUMS submission to SemEval-2020 Task 3: Graded
Word Similarity in Context. The system utilises state-of-the-art contextualised
word embeddings, which have some task-specific adaptations, including stacked
embeddings and average embeddings. Overall, the approach achieves good
evaluation scores across all the languages, while maintaining simplicity.
Following the final rankings, our approach is ranked within the top 5 solutions
of each language while preserving the 1st position of Finnish subtask 2.
- Abstract(参考訳): 本稿では,SemEval-2020 Task 3: Graded Word similarity in Contextを提案する。
このシステムは、スタックド埋め込みや平均埋め込みなど、タスク固有の適応を持つ、最先端の文脈化された単語埋め込みを利用する。
全体として、アプローチはシンプルさを維持しながら、すべての言語で優れた評価スコアを達成します。
最終ランキングに従えば、我々のアプローチはフィンランドのサブタスク2の1位を維持しながら、各言語の上位5のソリューションにランクインする。
関連論文リスト
- Compositional Generalization for Data-to-Text Generation [86.79706513098104]
本稿では,群に述語をクラスタ化することで構成一般化に対処する新しいモデルを提案する。
本モデルでは,1つの述語を1度に1つのクラスタに依存して文単位でテキストを生成する。
すべての評価指標でT5ベースラインをはるかに上回る。
論文 参考訳(メタデータ) (2023-12-05T13:23:15Z) - IXA/Cogcomp at SemEval-2023 Task 2: Context-enriched Multilingual Named
Entity Recognition using Knowledge Bases [53.054598423181844]
3つのステップからなる新しいNERカスケードアプローチを提案する。
我々は、細粒度および新興物質を正確に分類する上で、外部知識基盤の重要性を実証的に示す。
本システムは,低リソース言語設定においても,マルチコネラ2共有タスクにおいて頑健な性能を示す。
論文 参考訳(メタデータ) (2023-04-20T20:30:34Z) - Hierarchical Modular Network for Video Captioning [162.70349114104107]
ビデオ表現と言語意味論を3つのレベルからブリッジし,キャプションを生成する階層型モジュールネットワークを提案する。
提案手法は,MSVD 104.0% と MSR-VTT 51.5% の CIDEr スコアの2つのベンチマークにおいて,最先端のモデルに対して良好に動作する。
論文 参考訳(メタデータ) (2021-11-24T13:07:05Z) - Yseop at FinSim-3 Shared Task 2021: Specializing Financial Domain
Learning with Phrase Representations [0.0]
我々は、FinSim-3共有タスク2021:財務分野のセマンティック類似性を学ぶためのアプローチを提示する。
このタスクの目的は、金融ドメインから与えられた用語のリストを最も関連性の高いハイパーネムに正しく分類することである。
平均精度は0.917、平均ランクは1.141である。
論文 参考訳(メタデータ) (2021-08-21T10:53:12Z) - SemEval-2020 Task 10: Emphasis Selection for Written Text in Visual
Media [50.29389719723529]
本稿では,SemEval-2020 Task 10, Emphasis Selection for Written Text in Visual Media の主な成果とその結果を比較した。
この共有タスクの目的は、強調選択のための自動メソッドを設計することである。
タスクに送信されたシステムの解析は、BERTとRoBERTaが、トレーニング済みモデルの最も一般的な選択であることを示している。
論文 参考訳(メタデータ) (2020-08-07T17:24:53Z) - MULTISEM at SemEval-2020 Task 3: Fine-tuning BERT for Lexical Meaning [6.167728295758172]
SemEval 2020 Task 3: Graded Word similarity in Context (GWSC) に提出された MultiSEM システムについて述べる。
我々は,GWSCに関連する語彙意味タスクの微調整により,事前学習したBERTモデルに意味知識を注入する実験を行った。
既存の意味的注釈付きデータセットを用いて,文脈における語彙代用を自動生成することで,類似性を近似することを提案する。
論文 参考訳(メタデータ) (2020-07-24T09:50:26Z) - RUSSE'2020: Findings of the First Taxonomy Enrichment Task for the
Russian language [70.27072729280528]
本稿では,ロシア語の分類学的豊か化に関する最初の共有課題の結果について述べる。
16チームがこのタスクに参加し、半数以上が提供されたベースラインを上回った。
論文 参考訳(メタデータ) (2020-05-22T13:30:37Z) - UiO-UvA at SemEval-2020 Task 1: Contextualised Embeddings for Lexical
Semantic Change Detection [5.099262949886174]
本稿では,時とともに意味的ドリフトの度合いで単語をランク付けするSubtask 2に焦点を当てた。
最も効果的なアルゴリズムは、平均的なトークン埋め込みとトークン埋め込み間のペア距離のコサイン類似性に依存する。
論文 参考訳(メタデータ) (2020-04-30T18:43:57Z) - CIRCE at SemEval-2020 Task 1: Ensembling Context-Free and
Context-Dependent Word Representations [0.0]
文脈に依存しない単語表現に基づいて予測を行うアンサンブルモデルを提案する。
その結果,(1)文脈に依存しない単語表現は強力で堅牢なベースラインであり,(2)文脈に依存した単語表現を得るために文分類の目的を利用でき,(3)これらの表現を組み合わせることで,一部のデータセットのパフォーマンスが向上し,他のデータセットのパフォーマンスが低下することがわかった。
論文 参考訳(メタデータ) (2020-04-30T13:18:29Z) - A Survey on Contextual Embeddings [48.04732268018772]
文脈埋め込みは、各単語を文脈に基づく表現として割り当て、様々な文脈にまたがる単語の使用を捉え、言語間で伝達される知識を符号化する。
本稿では,既存の文脈埋め込みモデル,言語間多言語事前学習,下流タスクへの文脈埋め込みの適用,モデル圧縮,モデル解析についてレビューする。
論文 参考訳(メタデータ) (2020-03-16T15:22:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。