論文の概要: Probing Linguistic Features of Sentence-Level Representations in Neural
Relation Extraction
- arxiv url: http://arxiv.org/abs/2004.08134v1
- Date: Fri, 17 Apr 2020 09:17:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-12 13:16:35.559021
- Title: Probing Linguistic Features of Sentence-Level Representations in Neural
Relation Extraction
- Title(参考訳): 神経関係抽出における文レベルの表現の言語的特徴の探索
- Authors: Christoph Alt and Aleksandra Gabryszak and Leonhard Hennig
- Abstract要約: ニューラルリレーション抽出(RE)に関連する言語特性を対象とした14の探索タスクを導入する。
私たちは、40以上の異なるエンコーダアーキテクチャと2つのデータセットでトレーニングされた言語的特徴の組み合わせによって学習された表現を研究するためにそれらを使用します。
アーキテクチャによって引き起こされるバイアスと言語的特徴の含意は、探索タスクのパフォーマンスにおいて明らかに表現されている。
- 参考スコア(独自算出の注目度): 80.38130122127882
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite the recent progress, little is known about the features captured by
state-of-the-art neural relation extraction (RE) models. Common methods encode
the source sentence, conditioned on the entity mentions, before classifying the
relation. However, the complexity of the task makes it difficult to understand
how encoder architecture and supporting linguistic knowledge affect the
features learned by the encoder. We introduce 14 probing tasks targeting
linguistic properties relevant to RE, and we use them to study representations
learned by more than 40 different encoder architecture and linguistic feature
combinations trained on two datasets, TACRED and SemEval 2010 Task 8. We find
that the bias induced by the architecture and the inclusion of linguistic
features are clearly expressed in the probing task performance. For example,
adding contextualized word representations greatly increases performance on
probing tasks with a focus on named entity and part-of-speech information, and
yields better results in RE. In contrast, entity masking improves RE, but
considerably lowers performance on entity type related probing tasks.
- Abstract(参考訳): 最近の進歩にもかかわらず、最先端のニューラルネットワーク抽出(RE)モデルで得られた特徴についてはほとんど分かっていない。
共通メソッドは、関係を分類する前に、エンティティが言及した元文を符号化する。
しかし、タスクの複雑さはエンコーダのアーキテクチャや言語知識がエンコーダによって学習された特徴にどのように影響するかを理解するのを難しくする。
我々は、REに関連する言語特性を対象とする14の探索タスクを導入し、40以上の異なるエンコーダアーキテクチャと2つのデータセット(TACREDとSemEval 2010 Task 8)で訓練された言語特徴の組み合わせによって学習された表現について研究する。
アーキテクチャによって引き起こされるバイアスと言語的特徴の含意は、探索タスクのパフォーマンスにおいて明らかに表現されている。
例えば、文脈化された単語表現を追加することで、名前付きエンティティと音声情報に焦点を当てたタスクの探索性能が大きく向上し、REでより良い結果が得られる。
対照的に、エンティティマスキングはREを改善するが、エンティティタイプに関連する探索タスクのパフォーマンスは大幅に低下する。
関連論文リスト
- Retrieval-Enhanced Named Entity Recognition [1.2187048691454239]
RENERは、In-Context Learningと情報検索技術に基づく自己回帰言語モデルを用いたエンティティ認識手法である。
実験の結果,CrossNERコレクションでは,提案手法を用いて最先端の性能を実現することができた。
論文 参考訳(メタデータ) (2024-10-17T01:12:48Z) - Enhancing Retrieval-Augmented LMs with a Two-stage Consistency Learning Compressor [4.35807211471107]
本研究では,検索強化言語モデルにおける検索情報圧縮のための2段階一貫性学習手法を提案する。
提案手法は複数のデータセットにまたがって実験的に検証され,質問応答タスクの精度と効率が顕著に向上したことを示す。
論文 参考訳(メタデータ) (2024-06-04T12:43:23Z) - Prompt-based Logical Semantics Enhancement for Implicit Discourse
Relation Recognition [4.7938839332508945]
Inlicit Discourse Relation Recognition (IDRR) のための Prompt-based Logical Semantics Enhancement (PLSE) 法を提案する。
提案手法は,事前学習した言語モデルに対する対話関係に関する知識を,素早い接続予測によってシームレスに注入する。
PDTB 2.0 と CoNLL16 データセットによる実験結果から,本手法は現状の最先端モデルに対して優れた一貫した性能を発揮することが示された。
論文 参考訳(メタデータ) (2023-11-01T08:38:08Z) - Semantics-Aware Dynamic Localization and Refinement for Referring Image
Segmentation [102.25240608024063]
画像の参照は、言語表現からのイメージセグメントを参照する。
そこで我々は,局所化中心からセグメンテーション言語へ移行するアルゴリズムを開発した。
比較すると,本手法はより汎用的で有効である。
論文 参考訳(メタデータ) (2023-03-11T08:42:40Z) - Enriching Relation Extraction with OpenIE [70.52564277675056]
関係抽出(RE)は情報抽出(IE)のサブ分野である
本稿では,オープン情報抽出(OpenIE)の最近の取り組みがREの課題の改善にどのように役立つかを検討する。
本稿では,2つの注釈付きコーパスであるKnowledgeNetとFewRelを用いた実験により,拡張モデルの精度向上を実証した。
論文 参考訳(メタデータ) (2022-12-19T11:26:23Z) - An Empirical Investigation of Commonsense Self-Supervision with
Knowledge Graphs [67.23285413610243]
大規模知識グラフから抽出した情報に基づく自己監督は、言語モデルの一般化を改善することが示されている。
本研究では,言語モデルに適用可能な合成データを生成するための知識サンプリング戦略とサイズの影響について検討する。
論文 参考訳(メタデータ) (2022-05-21T19:49:04Z) - Imposing Relation Structure in Language-Model Embeddings Using
Contrastive Learning [30.00047118880045]
グラフ構造における関係をエンコードするために文埋め込みを訓練する新しいコントラスト学習フレームワークを提案する。
結果として得られた関係認識文の埋め込みは、関係抽出タスクにおける最先端の結果を得る。
論文 参考訳(メタデータ) (2021-09-02T10:58:27Z) - ERICA: Improving Entity and Relation Understanding for Pre-trained
Language Models via Contrastive Learning [97.10875695679499]
そこで本研究では, ERICA という新たなコントラスト学習フレームワークを提案し, エンティティとその関係をテキストでより深く理解する。
実験の結果,提案する erica フレームワークは文書レベルの言語理解タスクにおいて一貫した改善を実現することがわかった。
論文 参考訳(メタデータ) (2020-12-30T03:35:22Z) - Learning from Context or Names? An Empirical Study on Neural Relation
Extraction [112.06614505580501]
テキストにおける2つの主要な情報ソースの効果について検討する:テキストコンテキストとエンティティ参照(名前)
本稿では,関係抽出のための実体型コントラスト事前学習フレームワーク(RE)を提案する。
我々のフレームワークは、異なるREシナリオにおけるニューラルモデルの有効性と堅牢性を改善することができる。
論文 参考訳(メタデータ) (2020-10-05T11:21:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。