論文の概要: UIUC_BioNLP at SemEval-2021 Task 11: A Cascade of Neural Models for
Structuring Scholarly NLP Contributions
- arxiv url: http://arxiv.org/abs/2105.05435v1
- Date: Wed, 12 May 2021 05:24:35 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-13 12:19:52.998676
- Title: UIUC_BioNLP at SemEval-2021 Task 11: A Cascade of Neural Models for
Structuring Scholarly NLP Contributions
- Title(参考訳): UIUC_BioNLP at SemEval-2021 Task 11: A Cascade of Neural Models for Structureuring Scholarly NLP Contributions
- Authors: Haoyang Liu, M. Janina Sarol and Halil Kilicoglu
- Abstract要約: 本稿では,文分類,文認識,三重抽出を行うニューラルネットワークのカスケードを提案する。
BERT-CRFモデルを用いて、コントリビューション文中の関連するフレーズを認識し、特徴付ける。
本システムは第1相評価では第2位,第2相評価では両部で第1位であった。
- 参考スコア(独自算出の注目度): 1.5942130010323128
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a cascade of neural models that performs sentence classification,
phrase recognition, and triple extraction to automatically structure the
scholarly contributions of NLP publications. To identify the most important
contribution sentences in a paper, we used a BERT-based classifier with
positional features (Subtask 1). A BERT-CRF model was used to recognize and
characterize relevant phrases in contribution sentences (Subtask 2). We
categorized the triples into several types based on whether and how their
elements were expressed in text, and addressed each type using separate
BERT-based classifiers as well as rules (Subtask 3). Our system was officially
ranked second in Phase 1 evaluation and first in both parts of Phase 2
evaluation. After fixing a submission error in Pharse 1, our approach yields
the best results overall. In this paper, in addition to a system description,
we also provide further analysis of our results, highlighting its strengths and
limitations. We make our code publicly available at
https://github.com/Liu-Hy/nlp-contrib-graph.
- Abstract(参考訳): 我々は,NLP出版物の学術的貢献を自動的に構造化するために,文分類,句認識,三重抽出を行うニューラルネットワークのカスケードを提案する。
論文の中で最も重要なコントリビューション文を特定するために,位置特徴付きBERT分類器を用いた(Subtask 1)。
BERT-CRFモデルを用いて,コントリビューション文中の関連フレーズの認識と特徴付けを行った(Subtask 2)。
3つの要素がテキストで表現されたかどうかと方法に基づいて,トリプルを複数のタイプに分類し,それぞれの型をbertベースの分類器とルール(サブタスク3)で対応させた。
本システムは第1相評価では第2位,第2相評価では両部で第1位であった。
Pharse 1 の提出エラーを修正した後、我々の手法は全体として最良の結果をもたらす。
本稿では,システム記述に加えて,その強みと限界を浮き彫りにして,結果のさらなる分析を行う。
私たちはコードをhttps://github.com/liu-hy/nlp-contrib-graphで公開しています。
関連論文リスト
- Co-training for Low Resource Scientific Natural Language Inference [65.37685198688538]
遠隔教師付きラベルに分類器のトレーニング力学に基づいて重みを割り当てる新しいコトレーニング手法を提案する。
予測された信頼度に対する任意のしきい値に基づいてサンプルをフィルタリングするのではなく、重要重みを割り当てることにより、自動ラベル付きデータの使用を最大化する。
提案手法は、遠隔監視ベースラインに対するマクロF1の1.5%の改善と、他の強力なSSLベースラインよりも大幅に改善されている。
論文 参考訳(メタデータ) (2024-06-20T18:35:47Z) - Software Mention Recognition with a Three-Stage Framework Based on BERTology Models at SOMD 2024 [0.0]
本稿では,Scholarly Publications shared-taskにおけるSoftware Mention DetectionにおけるサブタスクIのシステムについて述べる。
ベストパフォーマンスシステムは3段階のフレームワークを通じて名前付きエンティティ認識問題に対処する。
XLM-Rベースのモデルに基づくフレームワークは、重み付けされたF1スコア67.80%を実現し、ソフトウェアメンション認識タスクのサブタスクIの3位にチームに提供する。
論文 参考訳(メタデータ) (2024-04-23T17:06:24Z) - Prefer to Classify: Improving Text Classifiers via Auxiliary Preference
Learning [76.43827771613127]
本稿では、このような補助データアノテーションの新しい代替手段として、入力テキストのペア間のタスク固有の嗜好について検討する。
本稿では、与えられた分類課題と補助的選好の両方を学ぶことの協調効果を享受できる、P2Cと呼ばれる新しいマルチタスク学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-08T04:04:47Z) - AWTE-BERT:Attending to Wordpiece Tokenization Explicitly on BERT for
Joint Intent Classification and SlotFilling [5.684659127683238]
BERT (Bidirectional Representations from Transformers) は2つのタスクを共同で最適化する。
本稿では,ワードピーストークン化後の複数のサブトークン特徴を明示的にモデル化したBERTに基づく新しいジョイントモデルを提案する。
実験により,本モデルが意図分類精度,スロットフィリングF1,文レベルの意味的フレーム精度を大幅に向上することを確認した。
論文 参考訳(メタデータ) (2022-11-27T13:49:19Z) - Binary Classification with Positive Labeling Sources [71.37692084951355]
WEAPOは、負のラベル付け源を使わずにトレーニングラベルを作成するための、シンプルで競争力のあるWS手法である。
We show WEAPO achieve the highest averaged performance on 10 benchmark datasets。
論文 参考訳(メタデータ) (2022-08-02T19:32:08Z) - Question-Based Salient Span Selection for More Controllable Text
Summarization [67.68208237480646]
本稿では,質問応答(QA)信号を要約モデルに組み込む手法を提案する。
提案手法は,入力文書中の有声名詞句(NP)を自動生成することで同定する。
このQAベースの信号は、2段階の要約モデルに組み込まれ、まず分類モデルを用いて入力文書中の有能なNPをマークし、その後、条件付きで要約を生成する。
論文 参考訳(メタデータ) (2021-11-15T17:36:41Z) - Class Token and Knowledge Distillation for Multi-head Self-Attention
Speaker Verification Systems [20.55054374525828]
本稿では,ディープニューラルネットワーク(DNN)に基づく話者検証システムの性能向上のための3つの新しいアプローチについて検討する。
まず,クラストークンと呼ばれる学習可能なベクトルを用いて,平均的なグローバルプール機構を置換し,埋め込みを抽出する手法を提案する。
第2に,KD(Knowledge Distillation)哲学を用いて教師と学生のペアのネットワークを訓練するための蒸留表現トークンを追加した。
論文 参考訳(メタデータ) (2021-11-06T09:47:05Z) - Low-Resource Task-Oriented Semantic Parsing via Intrinsic Modeling [65.51280121472146]
私たちは本質的にオントロジーラベルについて知っているものを利用して、効率的なセマンティック解析モデルを構築します。
我々のモデルはTOPv2から派生した低リソースのベンチマークを用いて高効率である。
論文 参考訳(メタデータ) (2021-04-15T04:01:02Z) - KnowGraph@IITK at SemEval-2021 Task 11: Building KnowledgeGraph for NLP
Research [2.1012672709024294]
自然言語処理文献を用いた研究論文貢献型知識グラフ作成システムを開発する。
提案システムは対象領域に依存せず,任意の領域の知識グラフ構築に利用することができる。
終末パイプラインテスト,句抽出テスト,三重項抽出テストでは,F1スコアが0.38,0.63,0.76となった。
論文 参考訳(メタデータ) (2021-04-04T14:33:21Z) - Few-Shot Named Entity Recognition: A Comprehensive Study [92.40991050806544]
マルチショット設定のモデル一般化能力を向上させるための3つの手法を検討する。
ラベル付きデータの比率の異なる10の公開nerデータセットについて経験的比較を行う。
マルチショットとトレーニングフリーの両方の設定で最新の結果を作成します。
論文 参考訳(メタデータ) (2020-12-29T23:43:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。