論文の概要: Improving Adverse Drug Event Extraction with SpanBERT on Different Text
Typologies
- arxiv url: http://arxiv.org/abs/2105.08882v1
- Date: Wed, 19 May 2021 02:01:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-20 14:01:43.973252
- Title: Improving Adverse Drug Event Extraction with SpanBERT on Different Text
Typologies
- Title(参考訳): テキスト型の違いによるSpanBERTによる薬物イベント抽出の改善
- Authors: Beatrice Portelli, Daniele Passab\`i, Edoardo Lenzi, Giuseppe Serra,
Enrico Santus and Emmanuele Chersoni
- Abstract要約: 本稿では,ADE抽出作業におけるSpanBERTアーキテクチャの利用を初めて提案する。
人気の高いBERT変換器の新バージョンでは、マルチトークンテキストスパンが改良された。
- 参考スコア(独自算出の注目度): 7.811410039780227
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, Internet users are reporting Adverse Drug Events (ADE) on
social media, blogs and health forums. Because of the large volume of reports,
pharmacovigilance is seeking to resort to NLP to monitor these outlets. We
propose for the first time the use of the SpanBERT architecture for the task of
ADE extraction: this new version of the popular BERT transformer showed
improved capabilities with multi-token text spans. We validate our hypothesis
with experiments on two datasets (SMM4H and CADEC) with different text
typologies (tweets and blog posts), finding that SpanBERT combined with a CRF
outperforms all the competitors on both of them.
- Abstract(参考訳): 近年、インターネット利用者は、ソーシャルメディア、ブログ、健康フォーラムで有害薬物事件(ade)を報告している。
大量の報告のため、薬局はこれらのアウトレットを監視するためにNLPを活用しようとしている。
本稿では,ADE抽出のタスクにSpanBERTアーキテクチャを初めて使用することを提案する。
我々は2つのデータセット(SMM4HとCADEC)で異なるテキスト型(つぶやきとブログ投稿)で実験を行い、SpanBERTとCRFを組み合わせることにより、両者の競合よりも優れた結果が得られた。
関連論文リスト
- Contrastive News and Social Media Linking using BERT for Articles and
Tweets across Dual Platforms [1.5409664608353888]
本稿では,関連記事やつぶやきが近接している表現空間を学習するための対照的な学習手法を提案する。
比較学習手法であるCATBERT(Contrastive Articles Tweets BERT)を提案する。
以上の結果から,CATBERTは,関連ニュース記事とツイートの関連付けにおいて,優れたパフォーマンスを示すことが示唆された。
論文 参考訳(メタデータ) (2023-12-11T13:38:16Z) - Designing and Evaluating Interfaces that Highlight News Coverage
Diversity Using Discord Questions [84.55145223950427]
本稿は,ニュース記事のための大規模なソースコレクションをナビゲートすることは,それ以上のガイダンスなしでは困難であることを示す。
本稿では,ニュース読者が読みながら範囲の多様性を発見することを目的とした,注釈記事,要約記事,質問表の3つのインタフェースを設計する。
論文 参考訳(メタデータ) (2023-02-17T16:59:31Z) - Multiverse: Multilingual Evidence for Fake News Detection [71.51905606492376]
Multiverseは、偽ニュースの検出に使用できる多言語エビデンスに基づく新機能である。
偽ニュース検出機能としての言語間証拠の使用仮説を確認した。
論文 参考訳(メタデータ) (2022-11-25T18:24:17Z) - JOIST: A Joint Speech and Text Streaming Model For ASR [63.15848310748753]
JOISTは、音声テキストのペア入力とテキストのみのアンペア入力の両方で、ストリーミング、カスケード、エンコーダエンドツーエンド(E2E)モデルを訓練するアルゴリズムである。
JOISTの最良のテキスト表現は、テキストで訓練されていないモデルと比較して、様々な検索およびレアワードテストセットのWERを4-14%改善することがわかった。
論文 参考訳(メタデータ) (2022-10-13T20:59:22Z) - DABERT: Dual Attention Enhanced BERT for Semantic Matching [12.348661150707313]
本稿では,文対の微妙な相違を捉えるためにBERT(Dual Attention Enhanced BERT)の能力を高めるための新しいDual Attention Enhanced BERT(DABERT)を提案する。
DABERTは,(1)2つのチャネルアライメント機構を導入することで,ソフトな単語の一致を計測するデュアルアテンションモジュールを備える。
2) アダプティブフュージョンモジュールは,差分と親和性の特徴の集約を注意して学習し,文対の一致した詳細を記述するベクトルを生成する。
論文 参考訳(メタデータ) (2022-10-07T10:54:49Z) - Fake news detection using parallel BERT deep neural networks [1.0359008237358598]
本稿では,2つの並列BERTネットワークを用いて全文ニュース記事の精度検出を行うMWPBertを紹介する。
実験結果から,提案モデルが従来モデルよりも精度および他の性能指標で優れていたことが示唆された。
論文 参考訳(メタデータ) (2022-04-10T23:16:00Z) - Predicting Directionality in Causal Relations in Text [9.313899406300644]
SpanBERTは、長さが長い因果検体においてBERTより優れている。
CRESTは、因果関係の分散データセットの集合を統一するためのフレームワークである。
論文 参考訳(メタデータ) (2021-03-25T04:49:01Z) - A Hybrid Approach to Measure Semantic Relatedness in Biomedical Concepts [0.0]
ELMo, BERT, Sentence BERTモデルを用いて概念優先項を符号化して概念ベクトルを生成した。
SNLIおよびSTSbデータセット上でSiameseネットワークを使用してすべてのBERTモデルをトレーニングし、モデルがセマンティック情報を学ぶことができるようにしました。
概念ベクトルにオントロジー知識を注入すると、その品質がさらに向上し、関連性のスコアが向上する。
論文 参考訳(メタデータ) (2021-01-25T16:01:27Z) - It's not Greek to mBERT: Inducing Word-Level Translations from
Multilingual BERT [54.84185432755821]
mBERT (multilingual BERT) は、言語間での移動を可能にするリッチな言語間表現を学習する。
我々はmBERTに埋め込まれた単語レベルの翻訳情報について検討し、微調整なしで優れた翻訳能力を示す2つの簡単な方法を提案する。
論文 参考訳(メタデータ) (2020-10-16T09:49:32Z) - Explicit Alignment Objectives for Multilingual Bidirectional Encoders [111.65322283420805]
本稿では,多言語エンコーダAMBER(Aligned Multilingual Bi-directional EncodeR)の学習方法を提案する。
AMBERは、異なる粒度で多言語表現を整列する2つの明示的なアライメント目標を使用して、追加の並列データに基づいて訓練される。
実験結果から、AMBERは、シーケンスタグ付けで1.1平均F1スコア、XLMR-大規模モデル上での検索で27.3平均精度を得ることがわかった。
論文 参考訳(メタデータ) (2020-10-15T18:34:13Z) - Local Additivity Based Data Augmentation for Semi-supervised NER [59.90773003737093]
名前付きエンティティ認識(NER)は、深層言語理解の第1段階の1つである。
現在のNERモデルは、人間の注釈付きデータに大きく依存している。
半教師付きNERのための局所付加性に基づくデータ拡張法(LADA)を提案する。
論文 参考訳(メタデータ) (2020-10-04T20:46:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。