論文の概要: Span-based Named Entity Recognition by Generating and Compressing
Information
- arxiv url: http://arxiv.org/abs/2302.05392v1
- Date: Fri, 10 Feb 2023 17:40:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-13 15:05:53.009807
- Title: Span-based Named Entity Recognition by Generating and Compressing
Information
- Title(参考訳): 情報の生成と圧縮によるスパンに基づく名前付きエンティティ認識
- Authors: Nhung T.H. Nguyen, Makoto Miwa and Sophia Ananiadou
- Abstract要約: 我々は,2種類のIBモデルを一つのシステムに統合し,名前付きエンティティ認識を強化することを提案する。
5つの異なるコーパスの実験は、生成モデルと情報圧縮モデルの両方を共同で訓練することで、ベースラインスパンベースのNERシステムの性能を向上させることを示唆している。
- 参考スコア(独自算出の注目度): 23.444967843156086
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The information bottleneck (IB) principle has been proven effective in
various NLP applications. The existing work, however, only used either
generative or information compression models to improve the performance of the
target task. In this paper, we propose to combine the two types of IB models
into one system to enhance Named Entity Recognition (NER). For one type of IB
model, we incorporate two unsupervised generative components, span
reconstruction and synonym generation, into a span-based NER system. The span
reconstruction ensures that the contextualised span representation keeps the
span information, while the synonym generation makes synonyms have similar
representations even in different contexts. For the other type of IB model, we
add a supervised IB layer that performs information compression into the system
to preserve useful features for NER in the resulting span representations.
Experiments on five different corpora indicate that jointly training both
generative and information compression models can enhance the performance of
the baseline span-based NER system. Our source code is publicly available at
https://github.com/nguyennth/joint-ib-models.
- Abstract(参考訳): 情報ボトルネック(IB)の原理は様々なNLPアプリケーションで有効であることが証明されている。
しかし、既存の作業では、ターゲットタスクの性能を改善するために生成的または情報圧縮モデルのみを使用していた。
本稿では,2種類のIBモデルを一つのシステムに統合し,名前付きエンティティ認識(NER)を強化することを提案する。
ibモデルの1つのタイプでは、スパン再構成とシノニム生成という2つの教師なし生成成分をスパンベースのnerシステムに組み込む。
スパン再構成は文脈化されたスパン表現がスパン情報を保持することを保証し、同義語生成は異なる文脈においても類似した表現を持つ。
他のタイプのIBモデルでは、システムに情報圧縮を行う教師付きIB層を追加し、結果のスパン表現におけるNERの有用な特徴を保存する。
5つの異なるコーパスの実験は、生成モデルと情報圧縮モデルの両方を共同で訓練することで、ベースラインスパンベースのNERシステムの性能を向上させることができることを示している。
ソースコードはhttps://github.com/nguyennth/joint-ib-modelsで公開しています。
関連論文リスト
- Hybrid Multi-stage Decoding for Few-shot NER with Entity-aware Contrastive Learning [32.62763647036567]
名前付きエンティティ認識は、ラベル付けされたいくつかの例に基づいて、新しいタイプの名前付きエンティティを識別できる。
MsFNER(Entity-Aware Contrastive Learning)を用いたFew-shot NERのためのハイブリッド多段復号法を提案する。
MsFNERは一般的なNERを、エンティティスパン検出とエンティティ分類の2つのステージに分割する。
論文 参考訳(メタデータ) (2024-04-10T12:31:09Z) - Neural Coreference Resolution based on Reinforcement Learning [53.73316523766183]
コアレゾリューションシステムは2つのサブタスクを解決する必要がある。
ひとつのタスクは、潜在的な言及のすべてを検出することであり、もう1つは、可能な言及ごとに前者のリンクを学習することである。
本稿では,アクターをベースとした強化学習型ニューラルコア参照分解システムを提案する。
論文 参考訳(メタデータ) (2022-12-18T07:36:35Z) - HRKD: Hierarchical Relational Knowledge Distillation for Cross-domain
Language Model Compression [53.90578309960526]
大規模事前学習言語モデル(PLM)は、従来のニューラルネットワーク手法と比較して圧倒的な性能を示している。
階層的および領域的関係情報の両方を抽出する階層的関係知識蒸留法(HRKD)を提案する。
論文 参考訳(メタデータ) (2021-10-16T11:23:02Z) - EchoEA: Echo Information between Entities and Relations for Entity
Alignment [1.1470070927586016]
本稿では,エンティティ情報を関係に拡散し,エンティティにエコーバックする自己認識機構を活用した新しいフレームワーク Echo Entity Alignment (EchoEA) を提案する。
3つの実世界のクロスランガルデータセットの実験結果は、平均して96%で安定している。
論文 参考訳(メタデータ) (2021-07-07T07:34:21Z) - SpanNer: Named Entity Re-/Recognition as Span Prediction [62.66148736099347]
スパン予測モデルは名前付きエンティティ認識に使用される。
我々は11のデータセットに154のシステムを実験的に実装し、3つの言語をカバーした。
私たちのモデルはExplainaBoardプラットフォームにデプロイされました。
論文 参考訳(メタデータ) (2021-06-01T17:11:42Z) - Better Feature Integration for Named Entity Recognition [30.676768644145]
両タイプの機能をSynergized-LSTM(Syn-LSTM)に組み込むためのシンプルで堅牢なソリューションを提案する。
その結果、提案モデルが従来のアプローチよりも優れたパフォーマンスを実現し、パラメータを少なくできることが示された。
論文 参考訳(メタデータ) (2021-04-12T09:55:06Z) - Few-Shot Named Entity Recognition: A Comprehensive Study [92.40991050806544]
マルチショット設定のモデル一般化能力を向上させるための3つの手法を検討する。
ラベル付きデータの比率の異なる10の公開nerデータセットについて経験的比較を行う。
マルチショットとトレーニングフリーの両方の設定で最新の結果を作成します。
論文 参考訳(メタデータ) (2020-12-29T23:43:16Z) - Learning from Context or Names? An Empirical Study on Neural Relation
Extraction [112.06614505580501]
テキストにおける2つの主要な情報ソースの効果について検討する:テキストコンテキストとエンティティ参照(名前)
本稿では,関係抽出のための実体型コントラスト事前学習フレームワーク(RE)を提案する。
我々のフレームワークは、異なるREシナリオにおけるニューラルモデルの有効性と堅牢性を改善することができる。
論文 参考訳(メタデータ) (2020-10-05T11:21:59Z) - Bipartite Flat-Graph Network for Nested Named Entity Recognition [94.91507634620133]
ネスト型名前付きエンティティ認識(NER)のためのバイパートフラットグラフネットワーク(BiFlaG)
ネストされた名前付きエンティティ認識(NER)のためのバイパーティライトフラットグラフネットワーク(BiFlaG)を提案する。
論文 参考訳(メタデータ) (2020-05-01T15:14:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。