論文の概要: Exploring a Unified Sequence-To-Sequence Transformer for Medical Product
Safety Monitoring in Social Media
- arxiv url: http://arxiv.org/abs/2109.05815v1
- Date: Mon, 13 Sep 2021 09:37:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-14 15:44:40.351438
- Title: Exploring a Unified Sequence-To-Sequence Transformer for Medical Product
Safety Monitoring in Social Media
- Title(参考訳): ソーシャルメディアにおける医療製品安全モニタリングのための統一シーケンス・ツー・シーケンス変換器の探索
- Authors: Shivam Raval, Hooman Sedghamiz, Enrico Santus, Tuka Alhanai, Mohammad
Ghassemi, Emmanuele Chersoni
- Abstract要約: 逆イベント(英: adverse Events, AE)は、医療製品の使用による有害事象である。
ソーシャルメディアは早期のAE検出には不可欠かもしれないが、このデータの厳密なスケールは、人間のエージェントを使って分析しやすくする。
本稿では,T5モデルアーキテクチャを用いたシーケンス・ツー・シーケンス問題としてAE検出と抽出を行う。
- 参考スコア(独自算出の注目度): 4.8835585005433275
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adverse Events (AE) are harmful events resulting from the use of medical
products. Although social media may be crucial for early AE detection, the
sheer scale of this data makes it logistically intractable to analyze using
human agents, with NLP representing the only low-cost and scalable alternative.
In this paper, we frame AE Detection and Extraction as a sequence-to-sequence
problem using the T5 model architecture and achieve strong performance
improvements over competitive baselines on several English benchmarks (F1 =
0.71, 12.7% relative improvement for AE Detection; Strict F1 = 0.713, 12.4%
relative improvement for AE Extraction). Motivated by the strong commonalities
between AE-related tasks, the class imbalance in AE benchmarks and the
linguistic and structural variety typical of social media posts, we propose a
new strategy for multi-task training that accounts, at the same time, for task
and dataset characteristics. Our multi-task approach increases model
robustness, leading to further performance gains. Finally, our framework shows
some language transfer capabilities, obtaining higher performance than
Multilingual BERT in zero-shot learning on French data.
- Abstract(参考訳): 逆イベント(英: adverse Events、AE)は、医療製品の使用による有害事象である。
ソーシャルメディアは早期のAE検出には不可欠かもしれないが、このデータの重大さにより、NLPが唯一の低コストでスケーラブルな代替手段でありながら、人間のエージェントを使って分析しやすくなっている。
本稿では,T5モデルアーキテクチャを用いたシーケンス・ツー・シーケンス問題としてAE検出と抽出を行い,AE検出の相対的改善(F1 = 0.71, 12.7%,Strict F1 = 0.713, 12.4%,AE抽出の相対的改善)をイングランドのベンチマークで行った。
ae関連のタスク、aeベンチマークのクラス不均衡、ソーシャルメディア投稿の典型的な言語的および構造的多様性の強い共通性に動機づけられ、タスクとデータセットの特徴を同時に考慮したマルチタスクトレーニングのための新しい戦略を提案する。
私たちのマルチタスクアプローチはモデルの堅牢性を高め、さらなるパフォーマンス向上につながります。
最後に,本フレームワークは,フランス語データのゼロショット学習において,多言語BERTよりも高い性能を示す。
関連論文リスト
- Zero-Shot Embeddings Inform Learning and Forgetting with Vision-Language Encoders [6.7181844004432385]
IMM(Inter-Intra Modal Measure)は、微調整によるパフォーマンス変化の強力な予測器として機能する。
IIMMスコアの高いタスクの微調整はドメイン内のパフォーマンス向上をもたらすが、ドメイン外のパフォーマンス低下も引き起こす。
ターゲットデータの1つのフォワードパスだけで、実践者は、この重要な洞察を利用して、モデルが微調整後の改善を期待できる程度を評価することができる。
論文 参考訳(メタデータ) (2024-07-22T15:35:09Z) - Accelerating LLaMA Inference by Enabling Intermediate Layer Decoding via
Instruction Tuning with LITE [62.13435256279566]
大規模言語モデル(LLM)は、様々な自然言語タスクで顕著なパフォーマンスを実現している。
しかし、その大きなサイズは推論を遅く、計算的に高価にする。
最終層の生成能力に影響を与えることなく、これらの層が「良い」生成能力を得ることができることを示す。
論文 参考訳(メタデータ) (2023-10-28T04:07:58Z) - PREM: A Simple Yet Effective Approach for Node-Level Graph Anomaly
Detection [65.24854366973794]
ノードレベルのグラフ異常検出(GAD)は、医学、ソーシャルネットワーク、eコマースなどの分野におけるグラフ構造化データから異常ノードを特定する上で重要な役割を果たす。
本稿では,GADの効率を向上させるために,PREM (preprocessing and Matching) という簡単な手法を提案する。
我々のアプローチは、強力な異常検出機能を維持しながら、GADを合理化し、時間とメモリ消費を削減します。
論文 参考訳(メタデータ) (2023-10-18T02:59:57Z) - Rethink the Effectiveness of Text Data Augmentation: An Empirical
Analysis [4.771833920251869]
我々は,7つの異なるNLPタスクの配列にまたがるバックトランスレーションと共役する3種類のFT手法の有効性を評価する。
以上の結果から,強化データによる事前学習が,下流タスクのFT性能を効果的に向上させることが明らかとなった。
我々の発見は、LMのパフォーマンスを高める強力なツールとして、DAの可能性を強調します。
論文 参考訳(メタデータ) (2023-06-13T10:14:58Z) - Be Your Own Neighborhood: Detecting Adversarial Example by the
Neighborhood Relations Built on Self-Supervised Learning [64.78972193105443]
本稿では,予測に有効な新しいAE検出フレームワークを提案する。
AEの異常な関係と拡張バージョンを区別して検出を行う。
表現を抽出し、ラベルを予測するために、既製の自己監視学習(SSL)モデルが使用される。
論文 参考訳(メタデータ) (2022-08-31T08:18:44Z) - GENEVA: Benchmarking Generalizability for Event Argument Extraction with
Hundreds of Event Types and Argument Roles [77.05288144035056]
Event Argument extract (EAE)は、新しいイベントやドメインに対応するためのモデルの一般化性の改善に重点を置いている。
ACEやEREといった標準的なベンチマークデータセットは、40のイベントタイプと25のエンティティ中心の引数ロールをカバーする。
論文 参考訳(メタデータ) (2022-05-25T05:46:28Z) - Zero-Resource Multi-Dialectal Arabic Natural Language Understanding [0.0]
本稿では,現代標準アラビア語(MSA)データのみに基づく事前学習言語モデルを微調整する場合に,Dialectal Arabic(DA)のゼロショット性能について検討する。
ラベルなしDAデータによる自己学習を提案し、名前付きエンティティ認識(NER)、POSタグ付け(POS)、SRD(Sarcasm Detection)のコンテキストに適用する。
その結果,未ラベルDAデータを用いた自己学習の有効性が示された。
論文 参考訳(メタデータ) (2021-04-14T02:29:27Z) - Mixed-Lingual Pre-training for Cross-lingual Summarization [54.4823498438831]
言語間の要約は、ソース言語の記事に対する対象言語の要約を作成することを目的としている。
本稿では,翻訳のような言語間タスクと,マスク付き言語モデルのようなモノリンガルタスクの両方を活用する混合言語事前学習に基づくソリューションを提案する。
本モデルでは,2.82(中国語)と1.15(中国語,英語)のROUGE-1スコアを最先端の結果に対して改善する。
論文 参考訳(メタデータ) (2020-10-18T00:21:53Z) - A Simple but Tough-to-Beat Data Augmentation Approach for Natural
Language Understanding and Generation [53.8171136907856]
カットオフと呼ばれる、シンプルで効果的なデータ拡張戦略のセットを紹介します。
カットオフはサンプリング一貫性に依存しているため、計算オーバーヘッドが少なくなる。
cutoffは、敵のトレーニングを一貫して上回り、IWSLT2014 German- English データセットで最先端の結果を達成する。
論文 参考訳(メタデータ) (2020-09-29T07:08:35Z) - Event Presence Prediction Helps Trigger Detection Across Languages [13.06818350795583]
本稿では,Transformerをベースとしたアーキテクチャが,シーケンスラベリングタスクとしてイベント抽出を効果的にモデル化できることを示す。
本稿では,BERTに基づくイベント抽出モデルの性能を大幅に向上させる,文レベルとトークンレベルのトレーニング目標の組み合わせを提案する。
論文 参考訳(メタデータ) (2020-09-15T15:52:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。