論文の概要: Explore BiLSTM-CRF-Based Models for Open Relation Extraction
- arxiv url: http://arxiv.org/abs/2104.12333v2
- Date: Tue, 9 Jul 2024 12:06:39 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-11 00:57:55.832182
- Title: Explore BiLSTM-CRF-Based Models for Open Relation Extraction
- Title(参考訳): オープンリレーショナル抽出のためのBiLSTM-CRFモデル探索
- Authors: Tao Ni, Qing Wang, Gabriela Ferraro,
- Abstract要約: 我々は、双方向LSTM-CRF(BiLSTM-CRF)ニューラルネットワークと異なる文脈の単語埋め込み法に基づく複数のOpen REモデルを開発した。
タグ付け方式, 単語埋め込み方式, BiLSTM-CRF ネットワークの最適組み合わせを選択し, 複数関係文から抽出する顕著な能力を持つオープンREモデルを実現する。
- 参考スコア(独自算出の注目度): 5.7380564196163855
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Extracting multiple relations from text sentences is still a challenge for current Open Relation Extraction (Open RE) tasks. In this paper, we develop several Open RE models based on the bidirectional LSTM-CRF (BiLSTM-CRF) neural network and different contextualized word embedding methods. We also propose a new tagging scheme to solve overlapping problems and enhance models' performance. From the evaluation results and comparisons between models, we select the best combination of tagging scheme, word embedder, and BiLSTM-CRF network to achieve an Open RE model with a remarkable extracting ability on multiple-relation sentences.
- Abstract(参考訳): テキストから複数の関係を抽出することは、現在のOpen Relation extract (Open RE)タスクの課題である。
本稿では,双方向LSTM-CRF(BiLSTM-CRF)ニューラルネットワークと,異なる文脈の単語埋め込み手法に基づく複数のOpen REモデルを開発する。
また,重なり合う問題を解消し,モデルの性能を向上させる新しいタグ付け手法を提案する。
評価結果とモデルの比較から、タグ付け方式、単語埋め込み方式、BiLSTM-CRFネットワークの最適組み合わせを選択し、複数関係文に対する顕著な抽出能力を持つオープンREモデルを実現する。
関連論文リスト
- Open-RAG: Enhanced Retrieval-Augmented Reasoning with Open-Source Large Language Models [23.68266151581951]
Retrieval-Augmented Generation (RAG) は,Large Language Models (LLMs) の実際の精度を高めることが示されている。
既存の手法は、抽出された証拠を効果的に活用する際の限定的な推論能力に悩まされることが多い。
我々は,オープンソースLLMを用いたRAGにおける推論能力の向上を目的とした,新しいフレームワークであるOpen-RAGを紹介する。
論文 参考訳(メタデータ) (2024-10-02T17:37:18Z) - Relational Extraction on Wikipedia Tables using Convolutional and Memory
Networks [6.200672130699805]
関係抽出(Relation extract、RE)は、テキスト内のエンティティ間の関係を抽出するタスクである。
我々は、エンティティをエンコードするために、畳み込みニューラルネットワーク(CNN)とBidirectional-Long Short Term Memory(BiLSTM)ネットワークからなる新しいモデルを導入する。
論文 参考訳(メタデータ) (2023-07-11T22:36:47Z) - Less is More: Mitigate Spurious Correlations for Open-Domain Dialogue
Response Generation Models by Causal Discovery [52.95935278819512]
本研究で得られたCGDIALOGコーパスに基づくオープンドメイン応答生成モデルのスプリアス相関に関する最初の研究を行った。
因果探索アルゴリズムに着想を得て,反応生成モデルの学習と推論のための新しいモデル非依存手法を提案する。
論文 参考訳(メタデータ) (2023-03-02T06:33:48Z) - Enriching Relation Extraction with OpenIE [70.52564277675056]
関係抽出(RE)は情報抽出(IE)のサブ分野である
本稿では,オープン情報抽出(OpenIE)の最近の取り組みがREの課題の改善にどのように役立つかを検討する。
本稿では,2つの注釈付きコーパスであるKnowledgeNetとFewRelを用いた実験により,拡張モデルの精度向上を実証した。
論文 参考訳(メタデータ) (2022-12-19T11:26:23Z) - Detecting Unassimilated Borrowings in Spanish: An Annotated Corpus and
Approaches to Modeling [2.741266294612776]
非同化語彙借入に富んだスペイン語ニュースワイヤの注釈付きコーパスを導入する。
我々は,CRF,BiLSTM-CRF,Transformer-basedモデルなど,複数のシーケンスラベリングモデルがどのように動作するかを評価する。
論文 参考訳(メタデータ) (2022-03-30T09:46:51Z) - Bidirectional LSTM-CRF Attention-based Model for Chinese Word
Segmentation [2.3991565023534087]
中国語単語セグメンテーションのための双方向LSTM-CRFアテンションベースモデルを提案する。
我々のモデルは、他のニューラルネットワークによるベースライン手法よりも優れている。
論文 参考訳(メタデータ) (2021-05-20T11:46:53Z) - A Correspondence Variational Autoencoder for Unsupervised Acoustic Word
Embeddings [50.524054820564395]
そこで本稿では,変数分割音声セグメントを固定次元表現にマッピングするための教師なしモデルを提案する。
結果として得られる音響単語の埋め込みは、低リソース言語とゼロリソース言語のための検索、発見、インデックスシステムの基礎を形成することができる。
論文 参考訳(メタデータ) (2020-12-03T19:24:42Z) - Joint Extraction of Entity and Relation with Information Redundancy
Elimination [0.0]
本稿では,冗長な情報の問題と,エンティティと関係抽出モデルの重なり合う関係を解くための共同抽出モデルを提案する。
このモデルは、関係のない情報を生成することなく、複数の関連エンティティを直接抽出することができる。
また、文をモデル化する繰り返しユニットの能力を高めるために、LSTMという名前のリカレントニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2020-11-27T05:47:26Z) - Robust Finite Mixture Regression for Heterogeneous Targets [70.19798470463378]
本稿では,サンプルクラスタの探索と,複数の不完全な混合型ターゲットを同時にモデル化するFMRモデルを提案する。
我々は、高次元の学習フレームワークの下で、無症状のオラクルのパフォーマンス境界をモデルに提供します。
その結果,我々のモデルは最先端の性能を達成できることがわかった。
論文 参考訳(メタデータ) (2020-10-12T03:27:07Z) - Multi-Fact Correction in Abstractive Text Summarization [98.27031108197944]
Span-Factは、質問応答モデルから学んだ知識を活用して、スパン選択によるシステム生成サマリーの補正を行う2つの事実補正モデルのスイートである。
我々のモデルは、ソースコードのセマンティック一貫性を確保するために、反復的または自動回帰的にエンティティを置き換えるために、シングルまたはマルチマスキング戦略を採用している。
実験の結果,自動測定と人的評価の両面において,要約品質を犠牲にすることなく,システム生成要約の事実整合性を大幅に向上させることができた。
論文 参考訳(メタデータ) (2020-10-06T02:51:02Z) - Model Fusion via Optimal Transport [64.13185244219353]
ニューラルネットワークのための階層モデル融合アルゴリズムを提案する。
これは、不均一な非i.d.データに基づいてトレーニングされたニューラルネットワーク間での"ワンショット"な知識伝達に成功していることを示す。
論文 参考訳(メタデータ) (2019-10-12T22:07:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。