論文の概要: View Distillation with Unlabeled Data for Extracting Adverse Drug
Effects from User-Generated Data
- arxiv url: http://arxiv.org/abs/2105.11354v1
- Date: Mon, 24 May 2021 15:38:08 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-25 15:29:43.862574
- Title: View Distillation with Unlabeled Data for Extracting Adverse Drug
Effects from User-Generated Data
- Title(参考訳): ユーザ生成データから副作用を抽出するためのラベルなしデータによるビュー蒸留
- Authors: Payam Karisani, Jinho D. Choi, Li Xiong
- Abstract要約: 本稿では,ソーシャルメディアデータ中の逆薬物反応を同定するアルゴリズムを提案する。
本モデルでは,問題の性質と文脈的単語埋め込みの特性に依存している。
我々は、我々のモデルを、利用可能な最大のADRデータセットで評価する。
- 参考スコア(独自算出の注目度): 21.0706831551535
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present an algorithm based on multi-layer transformers for identifying
Adverse Drug Reactions (ADR) in social media data. Our model relies on the
properties of the problem and the characteristics of contextual word embeddings
to extract two views from documents. Then a classifier is trained on each view
to label a set of unlabeled documents to be used as an initializer for a new
classifier in the other view. Finally, the initialized classifier in each view
is further trained using the initial training examples. We evaluated our model
in the largest publicly available ADR dataset. The experiments testify that our
model significantly outperforms the transformer-based models pretrained on
domain-specific data.
- Abstract(参考訳): 本稿では,ソーシャルメディアデータ中の逆薬物反応(ADR)を識別するための多層トランスフォーマーに基づくアルゴリズムを提案する。
本モデルは,文書から2つのビューを抽出するために,問題の性質と文脈単語埋め込みの特性に依存する。
次に、各ビューに分類器をトレーニングし、ラベルのない文書のセットをラベル付けし、他のビューで新しい分類器のイニシャライザとして使用する。
最後に、各ビューにおける初期化分類器は、初期トレーニング例を使用してさらに訓練される。
我々は、我々のモデルを、利用可能な最大のADRデータセットで評価した。
実験によれば、このモデルはドメイン固有のデータに基づいて事前学習されたトランスフォーマーベースのモデルを大幅に上回っている。
関連論文リスト
- Benchmarking and Analyzing Generative Data for Visual Recognition [66.55174903469722]
この研究は生成的画像の影響を深く掘り下げ、主に外部データを利用するパラダイムを比較する。
我々は、2548のカテゴリを持つ22のデータセットからなるベンチマークである textbfGenBench を考案し、様々な視覚的認識タスクにまたがる生成データを評価した。
我々の徹底的なベンチマークと分析は、将来の調査における重要な課題を特定しながら、視覚認識における生成データの約束をスポットライトで示している。
論文 参考訳(メタデータ) (2023-07-25T17:59:59Z) - Cluster-level pseudo-labelling for source-free cross-domain facial
expression recognition [94.56304526014875]
表情認識のためのSFUDA法を提案する。
本手法は,自己教師付き事前学習を利用して,対象データから優れた特徴表現を学習する。
提案手法の有効性を4つの適応方式で検証し,FERに適用した場合,既存のSFUDA法より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2022-10-11T08:24:50Z) - Automatic Pharma News Categorization [0.0]
医薬情報科学に関連する23のニュースカテゴリからなるテキストデータセットを使用する。
分類タスクにおける複数変圧器モデルの微調整性能を比較した。
本稿では,最上位の個人予測器からなるアンサンブルモデルを提案する。
論文 参考訳(メタデータ) (2021-12-28T08:42:16Z) - Multi-Attribute Balanced Sampling for Disentangled GAN Controls [0.0]
予め訓練されたGANの潜伏空間から、生成されたデータに対する様々な制御を抽出することができる。
提案手法は,非絡み付き後処理の不要さを回避しつつ,最先端の分類器に基づく手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-10-28T08:44:13Z) - Visualizing Classifier Adjacency Relations: A Case Study in Speaker
Verification and Voice Anti-Spoofing [72.4445825335561]
任意のバイナリ分類器によって生成される検出スコアから2次元表現を導出する簡単な方法を提案する。
ランク相関に基づいて,任意のスコアを用いた分類器の視覚的比較を容易にする。
提案手法は完全に汎用的であり,任意の検出タスクに適用可能だが,自動話者検証と音声アンチスプーフィングシステムによるスコアを用いた手法を実証する。
論文 参考訳(メタデータ) (2021-06-11T13:03:33Z) - Self-Trained One-class Classification for Unsupervised Anomaly Detection [56.35424872736276]
異常検出(AD)は、製造から医療まで、さまざまな分野に応用されている。
本研究は、トレーニングデータ全体がラベル付けされておらず、正規サンプルと異常サンプルの両方を含む可能性のある、教師なしAD問題に焦点を当てる。
この問題に対処するため,データリファインメントによる堅牢な一級分類フレームワークを構築した。
本手法は6.3AUCと12.5AUCの平均精度で最先端の1クラス分類法より優れていることを示す。
論文 参考訳(メタデータ) (2021-06-11T01:36:08Z) - Single versus Multiple Annotation for Named Entity Recognition of
Mutations [4.213427823201119]
我々は,複数のアノテータが必要かどうかを測定するために,1つのアノテータ対2のアノテータによる影響について論じる。
単一アノテータを使用する場合のパフォーマンス損失を評価すると、第2のアノテーションのためにトレーニングデータをサンプルするために異なる方法を適用する。
保持されたダブルアノテートデータを使用して、異なるタイプのランキングを持つ2つのシナリオを構築します。
i)誤ったトレーニングインスタンスを識別する能力、(ii)最先端技術におけるミューテーションNERのパフォーマンスについて、両方のアプローチを評価する。
論文 参考訳(メタデータ) (2021-01-19T03:54:17Z) - Few-Shot Named Entity Recognition: A Comprehensive Study [92.40991050806544]
マルチショット設定のモデル一般化能力を向上させるための3つの手法を検討する。
ラベル付きデータの比率の異なる10の公開nerデータセットについて経験的比較を行う。
マルチショットとトレーニングフリーの両方の設定で最新の結果を作成します。
論文 参考訳(メタデータ) (2020-12-29T23:43:16Z) - Omni-supervised Facial Expression Recognition via Distilled Data [120.11782405714234]
ネットワークトレーニングにおいて,信頼度の高いサンプルを多量のラベルのないデータで活用するためのオムニ教師付き学習を提案する。
我々は,新しいデータセットが学習したFERモデルの能力を大幅に向上させることができることを実験的に検証した。
そこで本研究では,生成したデータセットを複数のクラスワイド画像に圧縮するために,データセット蒸留戦略を適用することを提案する。
論文 参考訳(メタデータ) (2020-05-18T09:36:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。