論文の概要: The Russian Drug Reaction Corpus and Neural Models for Drug Reactions
and Effectiveness Detection in User Reviews
- arxiv url: http://arxiv.org/abs/2004.03659v1
- Date: Tue, 7 Apr 2020 19:26:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-16 00:08:06.613596
- Title: The Russian Drug Reaction Corpus and Neural Models for Drug Reactions
and Effectiveness Detection in User Reviews
- Title(参考訳): ユーザレビューにおけるロシア薬反応コーパスと薬物反応・有効性検出のための神経モデル
- Authors: Elena Tutubalina, Ilseyar Alimova, Zulfat Miftahutdinov, Andrey
Sakhovskiy, Valentin Malykh and Sergey Nikolenko
- Abstract要約: ロシア・ドラッグ・リアクション・コーパス (RuDReC) は、ロシアにおける医薬品製品に関する消費者レビューを部分的に注釈付けした新しいコーパスである。
生の部分には、さまざまなインターネットソースから収集された14万件の健康関連ユーザー生成テキストが含まれている。
ラベル付き部は、薬物および疾患関連情報による薬物療法に関する500の消費者レビューを含んでいる。
- 参考スコア(独自算出の注目度): 13.428173157465062
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Russian Drug Reaction Corpus (RuDReC) is a new partially annotated corpus
of consumer reviews in Russian about pharmaceutical products for the detection
of health-related named entities and the effectiveness of pharmaceutical
products. The corpus itself consists of two parts, the raw one and the labelled
one. The raw part includes 1.4 million health-related user-generated texts
collected from various Internet sources, including social media. The labelled
part contains 500 consumer reviews about drug therapy with drug- and
disease-related information. Labels for sentences include health-related issues
or their absence. The sentences with one are additionally labelled at the
expression level for identification of fine-grained subtypes such as drug
classes and drug forms, drug indications, and drug reactions. Further, we
present a baseline model for named entity recognition (NER) and multi-label
sentence classification tasks on this corpus. The macro F1 score of 74.85% in
the NER task was achieved by our RuDR-BERT model. For the sentence
classification task, our model achieves the macro F1 score of 68.82% gaining
7.47% over the score of BERT model trained on Russian data. We make the RuDReC
corpus and pretrained weights of domain-specific BERT models freely available
at https://github.com/cimm-kzn/RuDReC
- Abstract(参考訳): ロシア・ドラッグ・リアクション・コーパス (RuDReC) は、健康関連物質の検出と医薬品の有効性に関する、ロシアにおける消費者レビューの部分的に注釈付けされたコーパスである。
コーパス自体は、生の部分とラベル付き部分の2つの部分で構成されている。
生の部分は、ソーシャルメディアを含むさまざまなインターネットソースから収集された、健康関連のユーザー生成テキスト140万件を含む。
ラベル付き部分は、薬物および疾患関連情報による薬物療法に関する500の消費者レビューを含んでいる。
文のラベルには健康関連の問題や欠席などが含まれる。
1つの文は、薬種や薬物形態、薬物表示、薬物反応などの細粒度のサブタイプを識別するための発現レベルに付加される。
さらに、このコーパス上で、名前付きエンティティ認識(NER)と多ラベル文分類タスクのベースラインモデルを提案する。
NERタスクにおけるマクロF1スコア74.85%は、RuDR-BERTモデルによって達成された。
文分類タスクでは,ロシア語データを用いたBERTモデルのスコアよりも68.82%のマクロF1スコアが7.47%向上した。
RuDReCコーパスとドメイン固有BERTモデルの事前学習重量をhttps://github.com/cimm-kzn/RuDReCで無償公開します。
関連論文リスト
- RaTEScore: A Metric for Radiology Report Generation [59.37561810438641]
本稿では,Radiological Report (Text) Evaluation (RaTEScore) として,新しい実体認識尺度を提案する。
RaTEScoreは、診断結果や解剖学的詳細などの重要な医療機関を強調し、複雑な医学的同義語に対して堅牢であり、否定表現に敏感である。
我々の評価は、RaTEScoreが既存の指標よりも人間の嗜好とより密接に一致していることを示し、確立された公開ベンチマークと、新たに提案したRaTE-Evalベンチマークの両方で検証した。
論文 参考訳(メタデータ) (2024-06-24T17:49:28Z) - Biomedical Entity Linking for Dutch: Fine-tuning a Self-alignment BERT Model on an Automatically Generated Wikipedia Corpus [2.4686585810894477]
本稿では,オランダ語におけるバイオメディカルエンティティリンクモデルについて述べる。
オントロジーにリンクしたオランダの生物医学的実体を文脈でウィキペディアから抽出した。
以上の結果から,英語以外の言語でリンクする生物医学的実体はいまだに困難であることが示唆された。
論文 参考訳(メタデータ) (2024-05-20T10:30:36Z) - "Hey..! This medicine made me sick": Sentiment Analysis of User-Generated Drug Reviews using Machine Learning Techniques [2.2874754079405535]
本研究は、特定の薬物に関するユーザレビューを、ポジティブ、ネガティブ、中立などの異なるクラスに分類する薬物レビュー分類システムを提案する。
収集されたデータは手動でラベル付けされ、ラベルが正しいことを保証するために手動で検証される。
論文 参考訳(メタデータ) (2024-04-09T08:42:34Z) - Contextualized Medication Information Extraction Using Transformer-based
Deep Learning Architectures [35.65283211002216]
薬剤の言及抽出,事象分類(治療内容の変更の有無を示す),文脈分類のためのNLPシステムを開発した。
我々は,900億語以上のテキストを用いて事前学習した大規模言語モデルであるGatorTronを含む,3つのサブタスクに対する最先端の事前学習型トランスフォーマモデルについて検討した。
我々のGatorTronモデルは、薬物抽出で0.9828(第3位)、イベント分類で0.9379(第2位)、文脈分類で0.9126(第2位)のF1スコアを達成した。
論文 参考訳(メタデータ) (2023-03-14T22:22:28Z) - Multimodal Model with Text and Drug Embeddings for Adverse Drug Reaction
Classification [9.339007998235378]
本稿では2つのコンポーネントを持つマルチモーダルモデルを提案する。これらのコンポーネントは言語理解と分子特性予測のための最先端のBERTモデルである。
実験により、ニューラルネットワークから得られる分子情報は、従来の分子記述子よりもADE分類にとって有益であることが示されている。
論文 参考訳(メタデータ) (2022-10-21T11:41:45Z) - Few-Shot Cross-lingual Transfer for Coarse-grained De-identification of
Code-Mixed Clinical Texts [56.72488923420374]
事前学習型言語モデル (LM) は低リソース環境下での言語間移動に大きな可能性を示している。
脳卒中におけるコードミキシング(スペイン・カタラン)臨床ノートの低リソース・実世界の課題を解決するために,NER (name recognition) のためのLMの多言語間転写特性を示す。
論文 参考訳(メタデータ) (2022-04-10T21:46:52Z) - RuBioRoBERTa: a pre-trained biomedical language model for Russian
language biomedical text mining [117.56261821197741]
ロシア語生物医学テキストマイニングのためのBERTベースのモデルをいくつか提示する。
これらのモデルは、ロシアの生物医学領域で自由に利用できるテキストのコーパスで事前訓練されている。
論文 参考訳(メタデータ) (2022-04-08T09:18:59Z) - RuMedBench: A Russian Medical Language Understanding Benchmark [58.99199480170909]
本稿では,複数のタスクタイプをカバーするオープンなロシア語医療言語理解ベンチマークについて述べる。
我々は、新しいタスクのための統一されたフォーマットラベリング、データ分割、評価メトリクスを作成します。
シングルナンバーメトリックは、ベンチマークに対処するモデルの能力を表す。
論文 参考訳(メタデータ) (2022-01-17T16:23:33Z) - An analysis of full-size Russian complexly NER labelled corpus of
Internet user reviews on the drugs based on deep learning and language neural
nets [94.37521840642141]
我々は、インターネットユーザーレビューのフルサイズのロシアの複雑なNERラベルコーパスを提示します。
高度なディープラーニングニューラルネットワークセットは、ロシアのテキストから薬理学的に有意義な実体を抽出するために使用される。
論文 参考訳(メタデータ) (2021-04-30T19:46:24Z) - Text Mining to Identify and Extract Novel Disease Treatments From
Unstructured Datasets [56.38623317907416]
Google Cloudを使って、NPRラジオ番組のポッドキャストのエピソードを書き起こします。
次に、テキストを体系的に前処理するためのパイプラインを構築します。
我々のモデルは、Omeprazoleが心臓熱傷の治療に役立てることに成功しました。
論文 参考訳(メタデータ) (2020-10-22T19:52:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。