論文の概要: PublishInCovid19 at WNUT 2020 Shared Task-1: Entity Recognition in Wet
Lab Protocols using Structured Learning Ensemble and Contextualised
Embeddings
- arxiv url: http://arxiv.org/abs/2010.02142v2
- Date: Thu, 15 Oct 2020 08:33:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-10 21:31:29.292488
- Title: PublishInCovid19 at WNUT 2020 Shared Task-1: Entity Recognition in Wet
Lab Protocols using Structured Learning Ensemble and Contextualised
Embeddings
- Title(参考訳): PublishInCovid19 at WNUT 2020 Shared Task-1:Entity Recognition in Wet Lab Protocols using Structured Learning Ensembles and Contextualized Embeddings (英語)
- Authors: Janvijay Singh, Anshul Wadhawan
- Abstract要約: Wet Lab Protocols上でのエンティティ認識の課題に対処するために,私たちが採用したアプローチについて述べる。
第1フェーズでは,様々な文脈の単語埋め込みとBiLSTM-CRFモデルを用いて実験を行った。
第2段階では,11種類のBiLSTM-CRFモデルからなるアンサンブルを生成する。
最終提案は, 部分的, 正確な一致に対して0.8175と0.7757のマイクロF1スコアを達成した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we describe the approach that we employed to address the task
of Entity Recognition over Wet Lab Protocols -- a shared task in EMNLP
WNUT-2020 Workshop. Our approach is composed of two phases. In the first phase,
we experiment with various contextualised word embeddings (like Flair,
BERT-based) and a BiLSTM-CRF model to arrive at the best-performing
architecture. In the second phase, we create an ensemble composed of eleven
BiLSTM-CRF models. The individual models are trained on random train-validation
splits of the complete dataset. Here, we also experiment with different output
merging schemes, including Majority Voting and Structured Learning Ensembling
(SLE). Our final submission achieved a micro F1-score of 0.8175 and 0.7757 for
the partial and exact match of the entity spans, respectively. We were ranked
first and second, in terms of partial and exact match, respectively.
- Abstract(参考訳): 本稿では,emnlp wnut-2020ワークショップにおける共有タスクであるwet labプロトコル上でのエンティティ認識の課題に対処するためのアプローチについて述べる。
私たちのアプローチは2つのフェーズで構成されています。
第1フェーズでは,フレイアやBERTをベースとした各種単語埋め込みとBiLSTM-CRFモデルを用いて,最高の性能のアーキテクチャを実現する。
第2段階では,11種類のBiLSTM-CRFモデルからなるアンサンブルを生成する。
個々のモデルは、完全なデータセットのランダムな列車評価分割で訓練される。
ここでは、多数決投票(Majority Voting)や構造化学習組立(Structured Learning Ensembling, SLE)など、さまざまな出力マージ方式を実験する。
最終提案では,0.8175のマイクロf1スコアと0.7757のエンティティスパンの部分的一致をそれぞれ達成した。
私たちはそれぞれ、部分試合と正確な試合で1位と2位にランクされた。
関連論文リスト
- SAM as the Guide: Mastering Pseudo-Label Refinement in Semi-Supervised Referring Expression Segmentation [66.92696817276288]
SemiRESは、RESを実行するためにラベル付きデータとラベルなしデータの組み合わせを効果的に活用する半教師付きフレームワークである。
SemiRESはSegment Anything Model (SAM) を組み込んでいる。
利用可能な候補と正確なマスクが一致しない場合、Pixel-Wise Adjustment(PWA)戦略を開発する。
論文 参考訳(メタデータ) (2024-06-03T15:42:30Z) - Large Language Models aren't all that you need [0.0]
本稿では,SemEval 2023 Task 2: MultiCoNER IIを解くために構築されたアーキテクチャとシステムについて述べる。
a)従来のランダムフィールドモデルと(b)カスタマイズされた頭で微調整されたLarge Language Model(LLM)の2つのアプローチを評価し、その2つのアプローチを比較した。
論文 参考訳(メタデータ) (2024-01-01T08:32:50Z) - Alibaba-Translate China's Submission for WMT 2022 Metrics Shared Task [61.34108034582074]
私たちはUNITE(Unified Translation Evaluation)のコアアイデアに基づいてシステムを構築します。
モデル事前学習の段階では、まず擬似ラベル付きデータ例をUNITEの継続事前訓練に適用する。
微調整の段階では、過去のWMTコンペティションの直接評価(DA)と多次元品質メトリクス(MQM)のデータの両方を使用します。
論文 参考訳(メタデータ) (2022-10-18T08:51:25Z) - Learning with MISELBO: The Mixture Cookbook [62.75516608080322]
本稿では,VampPriorとPixelCNNデコーダネットワークを用いて,フローベース階層型変分オートエンコーダ(VAE)の正規化のための変分近似を初めて提案する。
我々は、この協調行動について、VIと適応的重要度サンプリングの新たな関係を描いて説明する。
我々は、MNISTおよびFashionMNISTデータセット上の負のログ類似度の観点から、VAEアーキテクチャの最先端結果を得る。
論文 参考訳(メタデータ) (2022-09-30T15:01:35Z) - COLO: A Contrastive Learning based Re-ranking Framework for One-Stage
Summarization [84.70895015194188]
コントラスト学習に基づく一段階要約フレームワークであるCOLOを提案する。
COLOはCNN/DailyMailベンチマークの1段階システムの抽出と抽象化結果を44.58と46.33ROUGE-1スコアに引き上げた。
論文 参考訳(メタデータ) (2022-09-29T06:11:21Z) - Federated Hetero-Task Learning [42.985155807178685]
本稿では,シミュレーションデータセット,FLプロトコル,統一評価機構からなるヘテロタスク学習ベンチマークであるB-FHTLを提案する。
異なるFLアルゴリズムの公正な比較を保証するため、B-FHTLはFLプロトコルの完全なセットで構築される。
我々は,B-FHTL内での多タスク学習,フェデレーションパーソナライゼーション,およびフェデレーションメタ学習の分野におけるFLアルゴリズムを比較した。
論文 参考訳(メタデータ) (2022-06-07T16:43:09Z) - Team Enigma at ArgMining-EMNLP 2021: Leveraging Pre-trained Language
Models for Key Point Matching [0.0]
本稿では,ArgMining 2021におけるキーポイント分析共有タスクへのシステム記述について述べる。
入力(トピック、キーポイント、引数)から抽出した追加データや特徴を組み込んで、パフォーマンスを向上させるとともに、事前訓練された言語モデルの既存の状態を活用しました。
評価フェーズでは,mAP厳格化,mAP緩和スコアが0.872,0.966となり,リーダーボードでは5位となった。
論文 参考訳(メタデータ) (2021-10-24T07:10:39Z) - Partner-Assisted Learning for Few-Shot Image Classification [54.66864961784989]
人間の視覚能力を模倣し、徹底的な人間のアノテーションを必要とせずに効果的なモデルを学ぶために、わずかなショットラーニングが研究されている。
本稿では,新しいクラスのプロトタイプをラベル付きサンプルから推定できるように,要素表現を得るためのトレーニング戦略の設計に焦点をあてる。
本稿では,まずパートナーエンコーダのペアワイド類似性をモデル化し,ソフトアンカーとして機能する特徴を抽出し,その出力をソフトアンカーと整列させ,分類性能を最大化しようとする2段階トレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-09-15T22:46:19Z) - Few-Shot Named Entity Recognition: A Comprehensive Study [92.40991050806544]
マルチショット設定のモデル一般化能力を向上させるための3つの手法を検討する。
ラベル付きデータの比率の異なる10の公開nerデータセットについて経験的比較を行う。
マルチショットとトレーニングフリーの両方の設定で最新の結果を作成します。
論文 参考訳(メタデータ) (2020-12-29T23:43:16Z) - Phonemer at WNUT-2020 Task 2: Sequence Classification Using COVID
Twitter BERT and Bagging Ensemble Technique based on Plurality Voting [0.0]
新型コロナウイルス(COVID-19)に関連する英語のつぶやきを自動的に識別するシステムを開発した。
最終アプローチでは0.9037のF1スコアを達成し,F1スコアを評価基準として総合6位にランク付けした。
論文 参考訳(メタデータ) (2020-10-01T10:54:54Z) - Adaptive Name Entity Recognition under Highly Unbalanced Data [5.575448433529451]
我々は,2方向LSTM (BI-LSTM) 上に積み重ねた条件付きランダムフィールド (CRF) 層からなるニューラルアーキテクチャについて実験を行った。
WeakクラスとStrongクラスを2つの異なるセットに分割し、各セットのパフォーマンスを最適化するために2つのBi-LSTM-CRFモデルを適切に設計するアドオン分類モデルを提案する。
論文 参考訳(メタデータ) (2020-03-10T06:56:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。