論文の概要: Team Enigma at ArgMining-EMNLP 2021: Leveraging Pre-trained Language
Models for Key Point Matching
- arxiv url: http://arxiv.org/abs/2110.12370v1
- Date: Sun, 24 Oct 2021 07:10:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-31 14:52:20.596605
- Title: Team Enigma at ArgMining-EMNLP 2021: Leveraging Pre-trained Language
Models for Key Point Matching
- Title(参考訳): ArgMining-EMNLP 2021: キーポイントマッチングのための事前学習言語モデルを活用する
- Authors: Manav Nitin Kapadnis, Sohan Patnaik, Siba Smarak Panigrahi, Varun
Madhavan, Abhilash Nandy
- Abstract要約: 本稿では,ArgMining 2021におけるキーポイント分析共有タスクへのシステム記述について述べる。
入力(トピック、キーポイント、引数)から抽出した追加データや特徴を組み込んで、パフォーマンスを向上させるとともに、事前訓練された言語モデルの既存の状態を活用しました。
評価フェーズでは,mAP厳格化,mAP緩和スコアが0.872,0.966となり,リーダーボードでは5位となった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present the system description for our submission towards the Key Point
Analysis Shared Task at ArgMining 2021. Track 1 of the shared task requires
participants to develop methods to predict the match score between each pair of
arguments and keypoints, provided they belong to the same topic under the same
stance. We leveraged existing state of the art pre-trained language models
along with incorporating additional data and features extracted from the inputs
(topics, key points, and arguments) to improve performance. We were able to
achieve mAP strict and mAP relaxed score of 0.872 and 0.966 respectively in the
evaluation phase, securing 5th place on the leaderboard. In the post evaluation
phase, we achieved a mAP strict and mAP relaxed score of 0.921 and 0.982
respectively. All the codes to generate reproducible results on our models are
available on Github.
- Abstract(参考訳): 本稿では,ArgMining 2021におけるキーポイント分析共有タスクへのシステム記述について述べる。
共有タスクのトラック1は、同じスタンスの下で同じトピックに属している場合、参加者がそれぞれの引数とキーポイントの一致スコアを予測する方法を開発する必要がある。
既存の最先端の言語モデルを活用し、入力(トピック、キーポイント、引数)から抽出した追加のデータと機能を取り入れ、パフォーマンスを向上させた。
評価フェーズでは,mAP厳格化,mAP緩和スコアが0.872,0.966となり,リーダーボードでは5位となった。
術後評価では,mAPの厳格化とmAP緩和スコアの0.921と0.982をそれぞれ達成した。
私たちのモデルで再現可能な結果を生成するコードはすべてGithubで入手可能です。
関連論文リスト
- Unify word-level and span-level tasks: NJUNLP's Participation for the
WMT2023 Quality Estimation Shared Task [59.46906545506715]
我々は、WMT 2023 Quality Estimation (QE)共有タスクにNJUNLPチームを紹介する。
私たちのチームは2つのサブタスクすべてで英語とドイツ語のペアの予測を提出しました。
我々のモデルは、単語レベルと細粒度エラースパン検出サブタスクの両方において、英語とドイツ語で最高の結果を得た。
論文 参考訳(メタデータ) (2023-09-23T01:52:14Z) - Selective In-Context Data Augmentation for Intent Detection using
Pointwise V-Information [100.03188187735624]
PLMとPVI(pointwise V-information)に基づく新しい手法を導入し,モデル学習におけるデータポイントの有用性を計測する。
提案手法はまず,学習データの小さなシード上でPLMを微調整し,与えられた意図に対応する発話を新たに生成する。
そこで本手法は,大規模言語モデルの表現力を活用し,多様な学習データを生成する。
論文 参考訳(メタデータ) (2023-02-10T07:37:49Z) - Unifying Language Learning Paradigms [96.35981503087567]
データセットやセットアップ全体にわたって普遍的に有効である事前学習モデルのための統一的なフレームワークを提案する。
本研究では, 事前学習対象を相互に配置し, 異なる対象間の補間を効果的に行う方法を示す。
また,テキスト内学習において,ゼロショットSuperGLUEで175B GPT-3,ワンショット要約でT5-XXLの性能を3倍に向上させた。
論文 参考訳(メタデータ) (2022-05-10T19:32:20Z) - End-to-End Zero-Shot HOI Detection via Vision and Language Knowledge
Distillation [86.41437210485932]
我々は、ゼロショットHOI検出を前進させ、同時に見えないHOIと見えないHOIの両方を検出することを目指している。
本稿では,視覚言語による知識蒸留によるエンドツーエンドのゼロショットHOI検出フレームワークを提案する。
本手法は, 従来のSOTAを8.92%, 全体の10.18%で上回っている。
論文 参考訳(メタデータ) (2022-04-01T07:27:19Z) - NLP-CIC @ PRELEARN: Mastering prerequisites relations, from handcrafted
features to embeddings [68.97335984455059]
我々は,EVALITA 2020において,前提条件付き関係学習タスク(PRELEARN)のシステムと成果を報告した。
このタスクは、概念のペアが前提条件を持つかどうかを分類することを目的としている。
F1スコアが0.887点、0.690点の2つのシナリオでそれぞれ1位にランクインした。
論文 参考訳(メタデータ) (2020-11-07T12:13:09Z) - PublishInCovid19 at WNUT 2020 Shared Task-1: Entity Recognition in Wet
Lab Protocols using Structured Learning Ensemble and Contextualised
Embeddings [0.0]
Wet Lab Protocols上でのエンティティ認識の課題に対処するために,私たちが採用したアプローチについて述べる。
第1フェーズでは,様々な文脈の単語埋め込みとBiLSTM-CRFモデルを用いて実験を行った。
第2段階では,11種類のBiLSTM-CRFモデルからなるアンサンブルを生成する。
最終提案は, 部分的, 正確な一致に対して0.8175と0.7757のマイクロF1スコアを達成した。
論文 参考訳(メタデータ) (2020-10-05T16:45:30Z) - Phonemer at WNUT-2020 Task 2: Sequence Classification Using COVID
Twitter BERT and Bagging Ensemble Technique based on Plurality Voting [0.0]
新型コロナウイルス(COVID-19)に関連する英語のつぶやきを自動的に識別するシステムを開発した。
最終アプローチでは0.9037のF1スコアを達成し,F1スコアを評価基準として総合6位にランク付けした。
論文 参考訳(メタデータ) (2020-10-01T10:54:54Z) - FiSSA at SemEval-2020 Task 9: Fine-tuned For Feelings [2.362412515574206]
本稿では,スペイン語と英語の混在するソーシャルメディアデータを用いた感情分類手法を提案する。
単言語モデルと多言語モデルの両方を標準微調整法を用いて検討する。
2段階の微調整により、ベースモデルよりも感情分類性能が向上するが、大規模多言語XLM-RoBERTaモデルではF1スコアが最適である。
論文 参考訳(メタデータ) (2020-07-24T14:48:27Z) - Voice@SRIB at SemEval-2020 Task 9 and 12: Stacked Ensembling method for
Sentiment and Offensiveness detection in Social Media [2.9008108937701333]
埋め込み、Sentimixのアンサンブルメソッド、OffensEvalタスクをトレーニングします。
我々は、マクロF1スコア、精度、精度、およびデータセットのリコールについて、我々のモデルを評価する。
論文 参考訳(メタデータ) (2020-07-20T11:54:43Z) - AMR Parsing via Graph-Sequence Iterative Inference [62.85003739964878]
本稿では,AMR解析を入力シーケンスとインクリメンタルに構築されたグラフ上での2つの決定の連続として扱うエンド・ツー・エンドのモデルを提案する。
これら2つの質問に対する回答は相互因果関係であることを示す。
我々は、両方の視点でより良い回答を得るのに役立つ反復推論に基づくモデルを設計し、解析精度を大幅に改善する。
論文 参考訳(メタデータ) (2020-04-12T09:15:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。