論文の概要: Pack Together: Entity and Relation Extraction with Levitated Marker
- arxiv url: http://arxiv.org/abs/2109.06067v1
- Date: Mon, 13 Sep 2021 15:38:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-14 15:43:15.946449
- Title: Pack Together: Entity and Relation Extraction with Levitated Marker
- Title(参考訳): Pack Together: Levitated Markerによるエンティティとリレーション抽出
- Authors: Deming Ye, Yankai Lin, Maosong Sun
- Abstract要約: エンコーダにマーカを戦略的にパッケージ化することにより,スパン(ペア)間の依存関係を検討するために,Packed Levitated Markersという新しいスパン表現手法を提案する。
実験の結果,3つの平坦なNERタスクにおいて,有望なマーカーが充填されたモデルの方がシーケンスラベルモデルよりも0.4%-1.9%優れ,トークンコンキャットモデルを6つのNERベンチマークで上回っていることがわかった。
- 参考スコア(独自算出の注目度): 61.232174424421025
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Named Entity Recognition (NER) and Relation Extraction (RE) are the core
sub-tasks for information extraction. Many recent works formulate these two
tasks as the span (pair) classification problem, and thus focus on
investigating how to obtain a better span representation from the pre-trained
encoder. However, a major limitation of existing works is that they ignore the
dependencies between spans (pairs). In this work, we propose a novel span
representation approach, named Packed Levitated Markers, to consider the
dependencies between the spans (pairs) by strategically packing the markers in
the encoder. In particular, we propose a group packing strategy to enable our
model to process massive spans together to consider their dependencies with
limited resources. Furthermore, for those more complicated span pair
classification tasks, we design a subject-oriented packing strategy, which
packs each subject and all its objects into an instance to model the
dependencies between the same-subject span pairs. Our experiments show that our
model with packed levitated markers outperforms the sequence labeling model by
0.4%-1.9% F1 on three flat NER tasks, beats the token concat model on six NER
benchmarks, and obtains a 3.5%-3.6% strict relation F1 improvement with higher
speed over previous SOTA models on ACE04 and ACE05. Code and models are
publicly available at https://github.com/thunlp/PL-Marker.
- Abstract(参考訳): 名前付きエンティティ認識(ner)と関係抽出(re)は、情報抽出のコアサブタスクである。
最近の多くの研究は、これらの2つのタスクをスパン(ペア)分類問題として定式化し、事前訓練されたエンコーダからより良いスパン表現を得る方法の研究に焦点をあてている。
しかしながら、既存の作業の大きな制限は、スパン(pair)間の依存関係を無視することです。
本研究では,エンコーダ内のマーカを戦略的にパッキングすることでスパン(パイア)間の依存関係を検討するため,packed levitated markersという新しいスパン表現手法を提案する。
特に,モデルが大規模スパンを一緒に処理して,リソースに制限のある依存関係を検討するグループパッキング戦略を提案する。
さらに、より複雑なスパンペア分類タスクに対して、各サブジェクトとそのすべてのオブジェクトをインスタンスにパックし、同一サブジェクションスパンペア間の依存関係をモデル化する、サブジェクト指向のパッキング戦略を設計する。
実験の結果,3つの平坦なNERタスクにおいて,<sup>0</sup>-1.9%F1のシーケンスラベルモデルよりも高い性能を示し,従来のACE04およびACE05のSOTAモデルよりも高速な3.5%-3.6%の厳密な相関F1の改善が得られた。
コードとモデルはhttps://github.com/thunlp/pl-markerで公開されている。
関連論文リスト
- Mutually Guided Few-shot Learning for Relational Triple Extraction [10.539566491939844]
三重抽出(MG-FTE)のための相互指導型Few-shot学習フレームワーク
本手法は,関係を分類するエンティティ誘導型リレーショナルデコーダと,エンティティを抽出するプロトデコーダとから構成される。
FewRel 1.0(単一ドメイン)では12.6F1スコア、FewRel 2.0(クロスドメイン)では20.5F1スコアで、多くの最先端手法よりも優れています。
論文 参考訳(メタデータ) (2023-06-23T06:15:54Z) - Reference Twice: A Simple and Unified Baseline for Few-Shot Instance Segmentation [103.90033029330527]
FSIS(Few-Shot Instance)は、サポート例が限定された新しいクラスの検出とセグメンテーションを必要とする。
我々は、FSISのサポートとクエリ機能の関係を利用するための統合フレームワーク、Reference Twice(RefT)を導入する。
論文 参考訳(メタデータ) (2023-01-03T15:33:48Z) - ReSel: N-ary Relation Extraction from Scientific Text and Tables by
Learning to Retrieve and Select [53.071352033539526]
学術論文からN-ary関係を抽出する問題について考察する。
提案手法であるReSelは,このタスクを2段階のプロシージャに分解する。
3つの科学的情報抽出データセットに対する実験により、ReSelは最先端のベースラインを大きく上回っていることがわかった。
論文 参考訳(メタデータ) (2022-10-26T02:28:02Z) - SpanProto: A Two-stage Span-based Prototypical Network for Few-shot
Named Entity Recognition [45.012327072558975]
名前付きエンティティ認識(NER)は、アノテーション付きデータが少ない名前付きエンティティを識別することを目的としている。
そこで本研究では,2段階のアプローチを用いて,数発のNERに対処するセミナルスパンベースプロトタイプネットワーク(SpanProto)を提案する。
スパン抽出の段階では、逐次タグを大域境界行列に変換し、モデルが明示的な境界情報に集中できるようにする。
分類に言及するために、原型学習を活用してラベル付きスパンのセマンティック表現をキャプチャし、新しいクラスエンティティへの適応性を向上する。
論文 参考訳(メタデータ) (2022-10-17T12:59:33Z) - Effective Token Graph Modeling using a Novel Labeling Strategy for
Structured Sentiment Analysis [39.770652220521384]
構造化感情分析の最先端モデルでは、タスクを依存性解析の問題として捉えている。
スパン予測とスパン関係予測のラベル比は不均衡である。
依存グラフの2つのノードは複数の弧を持つことができないため、重複した感情は認識できない。
論文 参考訳(メタデータ) (2022-03-21T08:23:03Z) - X2Parser: Cross-Lingual and Cross-Domain Framework for Task-Oriented
Compositional Semantic Parsing [51.81533991497547]
タスク指向コンポジションセマンティックパーシング(TCSP)は複雑なネストされたユーザクエリを処理する。
本報告では,TCSPの変換可能なクロスランガルとクロスドメインを比較した。
本稿では,フラット化意図とスロット表現を別々に予測し,両方の予測タスクをシーケンスラベリング問題にキャストすることを提案する。
論文 参考訳(メタデータ) (2021-06-07T16:40:05Z) - Boosting Span-based Joint Entity and Relation Extraction via Squence
Tagging Mechanism [10.894755638322]
Spanベースの関節抽出は、テキストスパン形式で名前付きエンティティ認識(NER)と関係抽出(RE)を同時に行う。
近年の研究では、トークンラベルは重要なタスク固有の情報を伝達し、トークンのセマンティクスを豊かにすることができることが示されている。
本稿では,Span-based Network(STSN)を提案する。これはSpan-based joint extrac-tion Networkで,トークンBIOラベル情報によって拡張されている。
論文 参考訳(メタデータ) (2021-05-21T01:10:03Z) - AutoRC: Improving BERT Based Relation Classification Models via
Architecture Search [50.349407334562045]
BERTに基づく関係分類(RC)モデルは、従来のディープラーニングモデルよりも大幅に改善されている。
最適なアーキテクチャとは何かという合意は得られない。
BERTをベースとしたRCモデルのための包括的検索空間を設計し、設計選択を自動的に検出するためにNAS(Neural Architecture Search)手法を用いる。
論文 参考訳(メタデータ) (2020-09-22T16:55:49Z) - Multi-Label Text Classification using Attention-based Graph Neural
Network [0.0]
ラベル間の注意的依存構造を捉えるために,グラフアテンションネットワークに基づくモデルを提案する。
提案モデルでは, 従来の最先端モデルと比較して, 類似あるいは良好な性能が得られた。
論文 参考訳(メタデータ) (2020-03-22T17:12:43Z) - AvgOut: A Simple Output-Probability Measure to Eliminate Dull Responses [97.50616524350123]
機能エンジニアリングなしで、どの発話やトークンが退屈であるかを動的に認識する対話モデルを構築します。
最初のモデルMinAvgOutは、各バッチの出力分布を通して、ダイバーシティスコアを直接最大化する。
第2のモデルであるラベルファインチューニング(LFT)は、多様性スコアによって連続的にスケールされたラベルをソースシーケンスにプリペイドし、多様性レベルを制御する。
3つ目のモデルであるRLは強化学習を採用し、多様性スコアを報奨信号として扱う。
論文 参考訳(メタデータ) (2020-01-15T18:32:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。