論文の概要: NLP-CIC @ PRELEARN: Mastering prerequisites relations, from handcrafted
features to embeddings
- arxiv url: http://arxiv.org/abs/2011.03760v1
- Date: Sat, 7 Nov 2020 12:13:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-28 22:06:35.724666
- Title: NLP-CIC @ PRELEARN: Mastering prerequisites relations, from handcrafted
features to embeddings
- Title(参考訳): NLP-CIC @ PreLEARN: 手作り機能から埋め込みまで、前提条件関係をマスターする
- Authors: Jason Angel, Segun Taofeek Aroyehun, Alexander Gelbukh
- Abstract要約: 我々は,EVALITA 2020において,前提条件付き関係学習タスク(PRELEARN)のシステムと成果を報告した。
このタスクは、概念のペアが前提条件を持つかどうかを分類することを目的としている。
F1スコアが0.887点、0.690点の2つのシナリオでそれぞれ1位にランクインした。
- 参考スコア(独自算出の注目度): 68.97335984455059
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present our systems and findings for the prerequisite relation learning
task (PRELEARN) at EVALITA 2020. The task aims to classify whether a pair of
concepts hold a prerequisite relation or not. We model the problem using
handcrafted features and embedding representations for in-domain and
cross-domain scenarios. Our submissions ranked first place in both scenarios
with average F1 score of 0.887 and 0.690 respectively across domains on the
test sets. We made our code is freely available.
- Abstract(参考訳): EVALITA 2020において,前提条件付き関係学習タスク(PRELEARN)のシステムと成果を報告した。
このタスクは、概念のペアが前提条件を持つかどうかを分類することを目的としている。
我々は、手作りの機能とドメイン内およびドメイン間シナリオの埋め込み表現を用いて問題をモデル化する。
F1スコアが0.887点、0.690点の2つのシナリオでそれぞれ1位にランクインした。
コードを自由に利用できるようにしました。
関連論文リスト
- Dual Consolidation for Pre-Trained Model-Based Domain-Incremental Learning [64.1745161657794]
ドメイン・インクリメンタル・ラーニング(ドメイン・インクリメンタル・ラーニング、ドメイン・インクリメンタル・ラーニング、ドメイン・インクリメンタル・ラーニング、ドメイン・インクリメンタル・ラーニング、Domain-Incremental Learning、DIL)は、異なるドメインにまたがる新しい概念へのモデルの漸進的な適応を含む。
プレトレーニングモデルの最近の進歩は、DILの確かな基盤を提供する。
しかし、新しい概念を学ぶことは、しばしば、事前訓練された知識を破滅的に忘れてしまう。
本稿では,歴史的知識の統一と統合を図るために,デュアルコンソリデータティオン(ドゥクト)を提案する。
論文 参考訳(メタデータ) (2024-10-01T17:58:06Z) - FamiCom: Further Demystifying Prompts for Language Models with Task-Agnostic Performance Estimation [73.454943870226]
言語モデルは、コンテキスト内学習能力に優れています。
本稿では,タスク非依存のパフォーマンス推定のためのより包括的な尺度であるFamiComを提案する。
論文 参考訳(メタデータ) (2024-06-17T06:14:55Z) - Relational Proxies: Emergent Relationships as Fine-Grained
Discriminators [52.17542855760418]
本稿では,オブジェクトのグローバル部分とローカル部分の間の情報を利用してラベルを符号化する手法を提案する。
我々は、理論的な結果に基づいてプロキシを設計し、7つの挑戦的なきめ細かいベンチマークデータセットに基づいて評価する。
また、この理論を実験的に検証し、複数のベンチマークで一貫した結果を得る。
論文 参考訳(メタデータ) (2022-10-05T11:08:04Z) - Unifying Language Learning Paradigms [96.35981503087567]
データセットやセットアップ全体にわたって普遍的に有効である事前学習モデルのための統一的なフレームワークを提案する。
本研究では, 事前学習対象を相互に配置し, 異なる対象間の補間を効果的に行う方法を示す。
また,テキスト内学習において,ゼロショットSuperGLUEで175B GPT-3,ワンショット要約でT5-XXLの性能を3倍に向上させた。
論文 参考訳(メタデータ) (2022-05-10T19:32:20Z) - Team Enigma at ArgMining-EMNLP 2021: Leveraging Pre-trained Language
Models for Key Point Matching [0.0]
本稿では,ArgMining 2021におけるキーポイント分析共有タスクへのシステム記述について述べる。
入力(トピック、キーポイント、引数)から抽出した追加データや特徴を組み込んで、パフォーマンスを向上させるとともに、事前訓練された言語モデルの既存の状態を活用しました。
評価フェーズでは,mAP厳格化,mAP緩和スコアが0.872,0.966となり,リーダーボードでは5位となった。
論文 参考訳(メタデータ) (2021-10-24T07:10:39Z) - Yseop at FinSim-3 Shared Task 2021: Specializing Financial Domain
Learning with Phrase Representations [0.0]
我々は、FinSim-3共有タスク2021:財務分野のセマンティック類似性を学ぶためのアプローチを提示する。
このタスクの目的は、金融ドメインから与えられた用語のリストを最も関連性の高いハイパーネムに正しく分類することである。
平均精度は0.917、平均ランクは1.141である。
論文 参考訳(メタデータ) (2021-08-21T10:53:12Z) - A Frustratingly Easy Approach for Entity and Relation Extraction [25.797992240847833]
本稿では,エンティティと関係抽出のための簡単なパイプライン化手法を提案する。
標準ベンチマーク(ACE04、ACE05、SciERC)における新しい最先端技術を確立する。
このアプローチは基本的に2つの独立したエンコーダ上に構築され、単にエンティティモデルを使用して関係モデルの入力を構築します。
論文 参考訳(メタデータ) (2020-10-24T07:14:01Z) - R-VGAE: Relational-variational Graph Autoencoder for Unsupervised
Prerequisite Chain Learning [83.13634692459486]
本稿では,概念リソースノードからなるグラフ内の概念関係を予測するために,グラフオートエンコーダ(VGA-E)と呼ばれるモデルを提案する。
その結果, 教師なし手法は, グラフベースの半教師付き手法やベースライン法よりも9.77%, 10.47%, 前提条件関係予測精度とF1スコアに優れていた。
提案手法は,教師なし事前学習のタスクに深層学習表現を適用しようとする最初のグラフベースモデルである。
論文 参考訳(メタデータ) (2020-04-22T14:48:03Z) - Gestalt: a Stacking Ensemble for SQuAD2.0 [0.0]
本稿では,文脈文中の質問に対する正しい回答を見つけ出し,提示する深層学習システムを提案する。
我々のゴールは、各アンサンブルで最高のモデルを上回る異種SQuAD2.0モデルのアンサンブルを学習することである。
論文 参考訳(メタデータ) (2020-04-02T08:09:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。