論文の概要: CIRCE at SemEval-2020 Task 1: Ensembling Context-Free and
Context-Dependent Word Representations
- arxiv url: http://arxiv.org/abs/2005.06602v3
- Date: Tue, 6 Oct 2020 13:50:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-08 03:11:23.878036
- Title: CIRCE at SemEval-2020 Task 1: Ensembling Context-Free and
Context-Dependent Word Representations
- Title(参考訳): CIRCE at SemEval-2020 Task 1: Ensembling Context-free and Context-Dependent Word Representations
- Authors: Martin P\"omsl (Osnabr\"uck University) and Roman Lyapin (Cogent Labs
Inc.)
- Abstract要約: 文脈に依存しない単語表現に基づいて予測を行うアンサンブルモデルを提案する。
その結果,(1)文脈に依存しない単語表現は強力で堅牢なベースラインであり,(2)文脈に依存した単語表現を得るために文分類の目的を利用でき,(3)これらの表現を組み合わせることで,一部のデータセットのパフォーマンスが向上し,他のデータセットのパフォーマンスが低下することがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper describes the winning contribution to SemEval-2020 Task 1:
Unsupervised Lexical Semantic Change Detection (Subtask 2) handed in by team UG
Student Intern. We present an ensemble model that makes predictions based on
context-free and context-dependent word representations. The key findings are
that (1) context-free word representations are a powerful and robust baseline,
(2) a sentence classification objective can be used to obtain useful
context-dependent word representations, and (3) combining those representations
increases performance on some datasets while decreasing performance on others.
- Abstract(参考訳): 本稿では,SemEval-2020 Task 1: Unsupervised Lexical Semantic Change Detection (Subtask)への貢献について述べる。
2) チームUG学生インターンが引き継ぐ。
文脈に依存しない単語表現に基づいて予測を行うアンサンブルモデルを提案する。
その結果,(1)文脈自由語表現は強固かつ強固なベースラインであり,(2)文分類目的を用いて有用な文脈依存語表現を得ることが可能であり,(3)これらの表現を組み合わせることでデータセットの性能が向上し,他に対する性能が低下することがわかった。
関連論文リスト
- HKUST at SemEval-2023 Task 1: Visual Word Sense Disambiguation with
Context Augmentation and Visual Assistance [5.5532783549057845]
本稿では,事前学習したビジョンランゲージモデルを最大限活用するマルチモーダル検索フレームワークを提案する。
当社のシステムは,SemEval-2023 Task 1では最も競争力のある成果を上げていませんが,チームの半分近くを破ることが可能です。
論文 参考訳(メタデータ) (2023-11-30T06:23:15Z) - A Comprehensive Empirical Evaluation of Existing Word Embedding
Approaches [5.065947993017158]
既存の単語埋め込み手法の特徴を概説し,多くの分類タスクについて解析する。
伝統的なアプローチでは、主に単語表現を生成するために行列分解を使い、言語の意味的および構文的規則性をうまく捉えることができない。
一方、ニューラルネットワークに基づくアプローチは、言語の洗練された規則性を捕捉し、生成した単語表現における単語関係を保存することができる。
論文 参考訳(メタデータ) (2023-03-13T15:34:19Z) - PropSegmEnt: A Large-Scale Corpus for Proposition-Level Segmentation and
Entailment Recognition [63.51569687229681]
文中の各命題の文的含意関係を個別に認識する必要性について論じる。
提案するPropSegmEntは45K以上の提案のコーパスであり, 専門家によるアノテートを行う。
我々のデータセット構造は、(1)文書内の文章を命題の集合に分割し、(2)異なるが、トポジカルに整合した文書に対して、各命題の含意関係を分類するタスクに類似している。
論文 参考訳(メタデータ) (2022-12-21T04:03:33Z) - Conditional Supervised Contrastive Learning for Fair Text Classification [59.813422435604025]
対照的な学習を通してテキスト分類のための等化オッズとして知られる公平性の概念を満たす学習公正表現について研究する。
具体的には、まず、公正性制約のある学習表現と条件付き教師付きコントラスト目的との間の関係を理論的に分析する。
論文 参考訳(メタデータ) (2022-05-23T17:38:30Z) - IRB-NLP at SemEval-2022 Task 1: Exploring the Relationship Between Words
and Their Semantic Representations [0.0]
本研究は,CODWOEデータセットを用いた記述的,探索的,予測的データ分析に基づいて行った。
本稿では,定義モデリングとリバース辞書タスクのために設計したシステムの概要について述べる。
論文 参考訳(メタデータ) (2022-05-13T18:15:20Z) - Context vs Target Word: Quantifying Biases in Lexical Semantic Datasets [18.754562380068815]
BERTのような最先端のコンテキスト化モデルは、WiCやWSDのようなタスクを使用して、ワード・イン・コンテクストの表現を評価する。
本研究は,主要な文脈的語彙意味タスクにおいて,文脈-単語間相互作用を検証した最初の定量的分析(探索ベースラインを用いた)を提案する。
論文 参考訳(メタデータ) (2021-12-13T15:37:05Z) - Infusing Finetuning with Semantic Dependencies [62.37697048781823]
シンタックスとは異なり、セマンティクスは今日の事前訓練モデルによって表面化されないことを示す。
次に、畳み込みグラフエンコーダを使用して、タスク固有の微調整にセマンティック解析を明示的に組み込む。
論文 参考訳(メタデータ) (2020-12-10T01:27:24Z) - BRUMS at SemEval-2020 Task 3: Contextualised Embeddings for Predicting
the (Graded) Effect of Context in Word Similarity [9.710464466895521]
本稿では,SemEval-2020 Task 3: Graded Word similarity in Contextを提案する。
このシステムは、スタックド埋め込みや平均埋め込みなど、タスク固有の適応を持つ、最先端の文脈化された単語埋め込みを利用する。
最終ランキングに従えば、我々のアプローチはフィンランドのサブタスク2の1位を維持しながら、各言語の上位5のソリューションにランクインする。
論文 参考訳(メタデータ) (2020-10-13T10:25:18Z) - SemEval-2020 Task 10: Emphasis Selection for Written Text in Visual
Media [50.29389719723529]
本稿では,SemEval-2020 Task 10, Emphasis Selection for Written Text in Visual Media の主な成果とその結果を比較した。
この共有タスクの目的は、強調選択のための自動メソッドを設計することである。
タスクに送信されたシステムの解析は、BERTとRoBERTaが、トレーニング済みモデルの最も一般的な選択であることを示している。
論文 参考訳(メタデータ) (2020-08-07T17:24:53Z) - RUSSE'2020: Findings of the First Taxonomy Enrichment Task for the
Russian language [70.27072729280528]
本稿では,ロシア語の分類学的豊か化に関する最初の共有課題の結果について述べる。
16チームがこのタスクに参加し、半数以上が提供されたベースラインを上回った。
論文 参考訳(メタデータ) (2020-05-22T13:30:37Z) - BURT: BERT-inspired Universal Representation from Twin Structure [89.82415322763475]
BURT (BERT inspired Universal Representation from Twin Structure) は任意の粒度の入力シーケンスに対して普遍的で固定サイズの表現を生成することができる。
提案するBURTは,Siameseネットワークを採用し,自然言語推論データセットから文レベル表現を学習し,パラフレーズ化データセットから単語/フレーズレベル表現を学習する。
我々は,STSタスク,SemEval2013 Task 5(a) など,テキスト類似性タスクの粒度によってBURTを評価する。
論文 参考訳(メタデータ) (2020-04-29T04:01:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。