論文の概要: Does constituency analysis enhance domain-specific pre-trained BERT
models for relation extraction?
- arxiv url: http://arxiv.org/abs/2112.02955v1
- Date: Thu, 25 Nov 2021 10:27:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-12 15:19:29.863961
- Title: Does constituency analysis enhance domain-specific pre-trained BERT
models for relation extraction?
- Title(参考訳): 関係抽出のための領域固有の事前学習BERTモデルを強化するか?
- Authors: Anfu Tang (LISN), Louise Del\'eger, Robert Bossy, Pierre Zweigenbaum
(LISN), Claire N\'edellec
- Abstract要約: BioCreative VII の DrugProt トラックは、関係抽出システムの開発と評価のための手動注釈付きコーパスを提供する。
本稿では,提案提案に使用したアンサンブルシステムについて述べる。このシステムでは,細調整されたbioBERT,sciBERT,const-bioBERTモデルを多数決で予測する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently many studies have been conducted on the topic of relation
extraction. The DrugProt track at BioCreative VII provides a manually-annotated
corpus for the purpose of the development and evaluation of relation extraction
systems, in which interactions between chemicals and genes are studied. We
describe the ensemble system that we used for our submission, which combines
predictions of fine-tuned bioBERT, sciBERT and const-bioBERT models by majority
voting. We specifically tested the contribution of syntactic information to
relation extraction with BERT. We observed that adding constituentbased
syntactic information to BERT improved precision, but decreased recall, since
relations rarely seen in the train set were less likely to be predicted by BERT
models in which the syntactic information is infused. Our code is available
online [https://github.com/Maple177/drugprot-relation-extraction].
- Abstract(参考訳): 近年,関係抽出に関する研究が盛んに行われている。
BioCreative VIIのドラッグプロットトラックは、化学物質と遺伝子間の相互作用を研究する関係抽出システムの開発と評価を目的として、手動で注釈付けされたコーパスを提供する。
本稿では,提案提案に使用したアンサンブルシステムについて述べる。このシステムでは,細調整されたbioBERT,sciBERT,const-bioBERTモデルを多数決で予測する。
BERTとの相関抽出における構文情報の寄与を特に検証した。
bertに構成的構文情報を加えることで精度は向上したが,列車ではほとんど見られなかった関係が,構文情報が混入したbertモデルによって予測される可能性が低かったため,リコールは減少した。
私たちのコードはオンラインで入手できます [https://github.com/Maple177/drugprot-relation-extraction]。
関連論文リスト
- Extracting Protein-Protein Interactions (PPIs) from Biomedical
Literature using Attention-based Relational Context Information [5.456047952635665]
本研究は,二元的相互作用型ラベルを付加したベット型相互作用定義を用いた多元的PPIコーパスを提案する。
変換器を用いた深層学習手法は,関係表現のための関係文脈情報を利用して関係分類性能を向上させる。
このモデルの性能は, 広く研究されている4つのバイオメディカル関係抽出データセットで評価される。
論文 参考訳(メタデータ) (2024-03-08T01:43:21Z) - Learning to Denoise Biomedical Knowledge Graph for Robust Molecular Interaction Prediction [50.7901190642594]
分子間相互作用予測のためのバイオKDN (Biomedical Knowledge Graph Denoising Network) を提案する。
BioKDNは、ノイズの多いリンクを学習可能な方法で識別することで、局所的な部分グラフの信頼性の高い構造を洗練する。
ターゲットの相互作用に関する関係を円滑にすることで、一貫性とロバストなセマンティクスを維持する。
論文 参考訳(メタデータ) (2023-12-09T07:08:00Z) - BioREx: Improving Biomedical Relation Extraction by Leveraging
Heterogeneous Datasets [7.7587371896752595]
生物医学的関係抽出(RE)は、生物医学的自然言語処理(NLP)研究における中心的な課題である。
本稿では、個々のデータセットのデータの均一性を体系的に解決し、それらを大きなデータセットに組み合わせるための新しいフレームワークを提案する。
評価の結果,BioRExは個々のデータセットでトレーニングしたベンチマークシステムよりも大幅に高い性能を示すことがわかった。
論文 参考訳(メタデータ) (2023-06-19T22:48:18Z) - Drug Synergistic Combinations Predictions via Large-Scale Pre-Training
and Graph Structure Learning [82.93806087715507]
薬物併用療法は、より有効で安全性の低い疾患治療のための確立された戦略である。
ディープラーニングモデルは、シナジスティックな組み合わせを発見する効率的な方法として登場した。
我々のフレームワークは、他のディープラーニングベースの手法と比較して最先端の結果を達成する。
論文 参考訳(メタデータ) (2023-01-14T15:07:43Z) - CU-UD: text-mining drug and chemical-protein interactions with ensembles
of BERT-based models [12.08949974675794]
BioCreative VII track 1 DrugProt taskは、PubMedの抽象化における化学物質/ドラッグと遺伝子/タンパク質の関係を自動的に検出できるシステムの開発と評価を促進することを目的としている。
本稿では,複数のBERT言語モデルを含むアンサンブルシステムについて述べる。
F1スコア0.7739の精度で0.7708、リコール0.7770を取得し、BERTに基づく言語モデルのアンサンブルを用いて、化学物質とタンパク質の関係を自動的に検出する効果を実証した。
論文 参考訳(メタデータ) (2021-11-11T13:55:21Z) - SAIS: Supervising and Augmenting Intermediate Steps for Document-Level
Relation Extraction [51.27558374091491]
本稿では,関係抽出のための中間ステップ(SAIS)を監督し,拡張することにより,関連コンテキストやエンティティタイプをキャプチャするモデルを明示的に教えることを提案する。
そこで本提案手法は,より効果的な管理を行うため,より優れた品質の関係を抽出するだけでなく,それに対応する証拠をより正確に抽出する。
論文 参考訳(メタデータ) (2021-09-24T17:37:35Z) - D-REX: Dialogue Relation Extraction with Explanations [65.3862263565638]
この研究は、部分的にラベル付けされたデータのみを使用しながら関係が存在することを示す説明を抽出することに焦点を当てている。
本稿では,政策誘導型半教師付きアルゴリズムD-REXを提案する。
約90%の人は、強いBERTに基づく関節関係抽出と説明モデルよりもD-REXの説明を好んでいる。
論文 参考訳(メタデータ) (2021-09-10T22:30:48Z) - Improving BERT Model Using Contrastive Learning for Biomedical Relation
Extraction [13.354066085659198]
対比学習は、テキストデータの一般的なデータ拡張方法が不足しているため、自然言語処理では広く利用されていない。
本研究では, 対比学習を用いてBERTモデルからのテキスト表現を改善し, 関係抽出を行う手法を検討する。
3つの関係抽出ベンチマークデータセットの実験結果から,本手法がBERTモデル表現を改善し,最新性能を達成できることが示された。
論文 参考訳(メタデータ) (2021-04-28T17:50:24Z) - Learning Relation Prototype from Unlabeled Texts for Long-tail Relation
Extraction [84.64435075778988]
本稿では,ラベルのないテキストから関係プロトタイプを学習するための一般的なアプローチを提案する。
我々は、エンティティ間の暗黙的な要因として関係プロトタイプを学習する。
私たちは、New York TimesとGoogle Distant Supervisionの2つの公開データセットで実験を行います。
論文 参考訳(メタデータ) (2020-11-27T06:21:12Z) - Investigation of BERT Model on Biomedical Relation Extraction Based on
Revised Fine-tuning Mechanism [2.8881198461098894]
BERTモデルの微調整過程における層全体の利用法について検討する。
さらに解析により,BERTモデルの最後の層から関係性に関する重要な知識を学習できることが示唆された。
論文 参考訳(メタデータ) (2020-11-01T01:47:16Z) - Text Mining to Identify and Extract Novel Disease Treatments From
Unstructured Datasets [56.38623317907416]
Google Cloudを使って、NPRラジオ番組のポッドキャストのエピソードを書き起こします。
次に、テキストを体系的に前処理するためのパイプラインを構築します。
我々のモデルは、Omeprazoleが心臓熱傷の治療に役立てることに成功しました。
論文 参考訳(メタデータ) (2020-10-22T19:52:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。