論文の概要: Neural Contract Element Extraction Revisited: Letters from Sesame Street
- arxiv url: http://arxiv.org/abs/2101.04355v2
- Date: Mon, 22 Feb 2021 13:55:41 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-04 10:05:00.046499
- Title: Neural Contract Element Extraction Revisited: Letters from Sesame Street
- Title(参考訳): ニューラルコントラクト要素抽出再考:瀬佐間通りからのレター
- Authors: Ilias Chalkidis, Manos Fergadiotis, Prodromos Malakasiotis, Ion
Androutsopoulos
- Abstract要約: LSTMベースのエンコーダは、このタスクにおいて拡張CNN、Transformer、BERTよりもパフォーマンスがよい。
ドメイン固有のWORD2VEC埋め込みは、一般的なトレーニング済みのGLOVE埋め込みよりも優れている。
POSタグとトークンシェイプ埋め込みの形式でのモルフォシンタクティックな機能、およびコンテキスト対応のELMO埋め込みはパフォーマンスを改善しません。
- 参考スコア(独自算出の注目度): 13.389396129468745
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: We investigate contract element extraction. We show that LSTM-based encoders
perform better than dilated CNNs, Transformers, and BERT in this task. We also
find that domain-specific WORD2VEC embeddings outperform generic pre-trained
GLOVE embeddings. Morpho-syntactic features in the form of POS tag and token
shape embeddings, as well as context-aware ELMO embeddings do not improve
performance. Several of these observations contradict choices or findings of
previous work on contract element extraction and generic sequence labeling
tasks, indicating that contract element extraction requires careful
task-specific choices. Analyzing the results of (i) plain TRANSFORMER-based and
(ii) BERT-based models, we find that in the examined task, where the entities
are highly context-sensitive, the lack of recurrency in TRANSFORMERs greatly
affects their performance.
- Abstract(参考訳): 契約要素抽出について検討する。
LSTMをベースとしたエンコーダは, 拡張CNN, Transformer, BERTよりも優れた性能を示す。
また,ドメイン固有のWORD2VEC埋め込みは,汎用的な事前学習型GLOVE埋め込みよりも優れていた。
POSタグやトークン形状の埋め込みのようなモルフォシンタクティックな機能や、コンテキスト対応のELMO埋め込みはパフォーマンスを向上しない。
これらの観察のいくつかは、コントラクト要素抽出とジェネリックシーケンスラベリングタスクに関する以前の作業の選択や発見と矛盾しており、コントラクト要素の抽出には注意深くタスク固有の選択が必要であることを示している。
i)プレーンな Transformer と (ii) BERT をベースとしたモデルの結果を解析した結果,エンティティが文脈に敏感な場合,変換器の繰り返しの欠如が性能に大きな影響を及ぼすことがわかった。
関連論文リスト
- Bring Adaptive Binding Prototypes to Generalized Referring Expression Segmentation [18.806738617249426]
Generalized Referring Expressionは、複数のオブジェクトを記述したり、特定のオブジェクト参照を欠いたりすることで、新しい課題を導入する。
既存のRESメソッドは通常、洗練されたエンコーダデコーダと機能融合モジュールに依存している。
本稿では,適応結合型モデル (MABP) を提案する。
論文 参考訳(メタデータ) (2024-05-24T03:07:38Z) - Revisiting Sparse Retrieval for Few-shot Entity Linking [33.15662306409253]
本稿では,ELECTRAに基づくキーワード抽出手法を提案する。
抽出器のトレーニングには,参照コンテキストとエンティティ記述との間に重複するトークンをベースとしたトレーニングデータを自動的に生成する遠隔監視手法を提案する。
ZESHELデータセットによる実験結果から,提案手法はすべてのテスト領域において,最先端モデルよりも優れた性能を示した。
論文 参考訳(メタデータ) (2023-10-19T03:51:10Z) - BERM: Training the Balanced and Extractable Representation for Matching
to Improve Generalization Ability of Dense Retrieval [54.66399120084227]
本稿では,BERMと呼ばれるマッチング信号の取得により,高密度検索の一般化を改善する手法を提案する。
センス検索は、ドメイン内のラベル付きデータセットでトレーニングされた場合、第1段階の検索プロセスにおいて有望であることが示されている。
論文 参考訳(メタデータ) (2023-05-18T15:43:09Z) - GPT-NER: Named Entity Recognition via Large Language Models [58.609582116612934]
GPT-NERはシーケンスラベリングタスクを言語モデルで容易に適用可能な生成タスクに変換する。
GPT-NERは、トレーニングデータの量が極めて少ない場合、低リソースかつ少数ショットのセットアップにおいて、より優れた能力を示す。
これは、ラベル付きサンプルの数が限られている実世界のNERアプリケーションにおけるGPT-NERの機能を示す。
論文 参考訳(メタデータ) (2023-04-20T16:17:26Z) - Be Your Own Neighborhood: Detecting Adversarial Example by the
Neighborhood Relations Built on Self-Supervised Learning [64.78972193105443]
本稿では,予測に有効な新しいAE検出フレームワークを提案する。
AEの異常な関係と拡張バージョンを区別して検出を行う。
表現を抽出し、ラベルを予測するために、既製の自己監視学習(SSL)モデルが使用される。
論文 参考訳(メタデータ) (2022-08-31T08:18:44Z) - Task-guided Disentangled Tuning for Pretrained Language Models [16.429787408467703]
本稿では,事前学習型言語モデル(PLM)のためのタスク誘導型ディスタングル型チューニング(TDT)を提案する。
TDTは、タスク関連信号を絡み合った表現から切り離すことにより、表現の一般化を強化する。
GLUE と CLUE のベンチマークによる実験結果から,TDT は異なる PLM を用いた微調整よりも一貫した結果が得られた。
論文 参考訳(メタデータ) (2022-03-22T03:11:39Z) - Cross-Domain Contract Element Extraction with a Bi-directional Feedback
Clause-Element Relation Network [70.00960496773938]
クロスドメイン契約要素抽出タスクに対して双方向フィードバックcLause-Element relaTionネットワーク(Bi-FLEET)を提案する。
Bi-FLEETには、(1)コンテキストエンコーダ、(2)節-要素関係エンコーダ、(3)推論層という3つの主要なコンポーネントがある。
クロスドメインNERとCEEの両方のタスクに対する実験結果から、Bi-FLEETは最先端のベースラインを大きく上回ることが示された。
論文 参考訳(メタデータ) (2021-05-13T05:14:36Z) - GRIT: Generative Role-filler Transformers for Document-level Event
Entity Extraction [134.5580003327839]
本稿では、文書レベルでコンテキストをモデル化するための生成トランスフォーマーベースのエンコーダデコーダフレームワーク(GRIT)を紹介する。
我々は,MUC-4データセットに対する我々のアプローチを評価し,我々のモデルが先行作業よりもかなり優れていることを示す。
論文 参考訳(メタデータ) (2020-08-21T01:07:36Z) - Do Syntax Trees Help Pre-trained Transformers Extract Information? [8.133145094593502]
本稿では,情報抽出タスクにおいて,依存木を事前学習した変換器に組み込むことの有用性について検討する。
依存関係構造を組み込むための2つの異なる戦略を提案し,検討する。
それらの性能向上は,人間による注釈付き依存関係解析の可用性に大きく影響していることがわかった。
論文 参考訳(メタデータ) (2020-08-20T17:17:38Z) - Probing Linguistic Features of Sentence-Level Representations in Neural
Relation Extraction [80.38130122127882]
ニューラルリレーション抽出(RE)に関連する言語特性を対象とした14の探索タスクを導入する。
私たちは、40以上の異なるエンコーダアーキテクチャと2つのデータセットでトレーニングされた言語的特徴の組み合わせによって学習された表現を研究するためにそれらを使用します。
アーキテクチャによって引き起こされるバイアスと言語的特徴の含意は、探索タスクのパフォーマンスにおいて明らかに表現されている。
論文 参考訳(メタデータ) (2020-04-17T09:17:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。