論文の概要: Pulse of the Pandemic: Iterative Topic Filtering for Clinical
Information Extraction from Social Media
- arxiv url: http://arxiv.org/abs/2102.06836v2
- Date: Mon, 28 Jun 2021 15:50:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-11 06:14:27.942481
- Title: Pulse of the Pandemic: Iterative Topic Filtering for Clinical
Information Extraction from Social Media
- Title(参考訳): パンデミックのパルス : ソーシャルメディアからの臨床情報抽出のための反復的トピックフィルタリング
- Authors: Julia Wu, Venkatesh Sivaraman, Dheekshita Kumar, Juan M. Banda and
David Sontag
- Abstract要約: 新型コロナウイルスのパンデミックの急速な進展は、公衆衛生上の緊急事態において、最新の臨床知識を急速に広める必要性を浮き彫りにした。
ソーシャルメディアデータから臨床関連情報を抽出するための,教師なしかつ反復的なアプローチを提案する。
このアプローチは、約5200万件の新型コロナウイルス関連ツイートから、臨床関連性の高い詳細なトピックやツイートを特定する。
- 参考スコア(独自算出の注目度): 1.5938324336156293
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rapid evolution of the COVID-19 pandemic has underscored the need to
quickly disseminate the latest clinical knowledge during a public-health
emergency. One surprisingly effective platform for healthcare professionals
(HCPs) to share knowledge and experiences from the front lines has been social
media (for example, the "#medtwitter" community on Twitter). However,
identifying clinically-relevant content in social media without manual labeling
is a challenge because of the sheer volume of irrelevant data. We present an
unsupervised, iterative approach to mine clinically relevant information from
social media data, which begins by heuristically filtering for HCP-authored
texts and incorporates topic modeling and concept extraction with MetaMap. This
approach identifies granular topics and tweets with high clinical relevance
from a set of about 52 million COVID-19-related tweets from January to mid-June
2020. We also show that because the technique does not require manual labeling,
it can be used to identify emerging topics on a week-to-week basis. Our method
can aid in future public-health emergencies by facilitating knowledge transfer
among healthcare workers in a rapidly-changing information environment, and by
providing an efficient and unsupervised way of highlighting potential areas for
clinical research.
- Abstract(参考訳): 新型コロナウイルス(covid-19)パンデミックの急速な進展は、公衆衛生上の緊急事態時に最新の臨床知識を迅速に広める必要性を強調している。
医療専門家(HCP)が最前線で知識と経験を共有するのに驚くほど効果的なプラットフォームは、ソーシャルメディア(例えばTwitterの"#medtwitter"コミュニティ)だ。
しかし,手動ラベリングを伴わないソーシャルメディアにおける臨床関連内容の同定は,無関係データの量が多いため困難である。
本稿では,HCPによるテキストのヒューリスティックフィルタリングから始まり,メタマップによるトピックモデリングと概念抽出を取り入れた,ソーシャルメディアデータから臨床関連情報を抽出する,教師なしの反復的アプローチを提案する。
このアプローチは、2020年1月から6月半ばにかけての5200万件のCOVID-19関連ツイートから、臨床関連性の高い詳細なトピックやツイートを特定する。
また,手作業によるラベリングを必要とせず,週単位の新規トピックの識別にも使用できることを示した。
本手法は, 医療従事者間の情報伝達の迅速化と, 臨床研究における潜在的領域の強調を目的とした, 効率的かつ教師なしの方法を提供することにより, 今後の公衆衛生の緊急化を支援することができる。
関連論文リスト
- Reddit-Impacts: A Named Entity Recognition Dataset for Analyzing Clinical and Social Effects of Substance Use Derived from Social Media [6.138126219622993]
物質利用障害(SUD)は、データ駆動研究を通じて、問題とそのトレンドの理解を深める必要がある、世界的な関心事である。
ソーシャルメディアは、SUDに関するユニークな重要な情報源であり、特にそのような情報源のデータは、生きた経験を持つ人々によってしばしば生成されるためである。
本稿では,処方と違法なオピオイド,およびオピオイド使用障害の薬物に関する議論を専門とするサブレディットからキュレートされた,難解な名前付きエンティティ認識(NER)データセットであるReddit-Impactsを紹介する。
このデータセットは、研究の少ないが重要な、物質利用の側面に特に焦点を絞っている。
論文 参考訳(メタデータ) (2024-05-09T23:43:57Z) - Empowering machine learning models with contextual knowledge for
enhancing the detection of eating disorders in social media posts [1.0423569489053137]
本稿では,知識グラフと深層学習を組み合わせてソーシャルメディア投稿の分類を強化する新しいハイブリッドアプローチを提案する。
我々は、健康領域、特に摂食障害に関連するポストを特定することに重点を置いている。
我々は,摂食障害に関する2000ツイートのデータセットを用いて,知識グラフ情報と単語埋め込みを組み合わせることで,予測モデルの信頼性が向上することを確認した。
論文 参考訳(メタデータ) (2024-02-08T10:15:41Z) - Retrieval-Augmented and Knowledge-Grounded Language Models for Faithful Clinical Medicine [68.7814360102644]
本稿では,Re$3$Writer法を提案する。
本手法が患者の退院指示生成に有効であることを示す。
論文 参考訳(メタデータ) (2022-10-23T16:34:39Z) - Recovering Patient Journeys: A Corpus of Biomedical Entities and
Relations on Twitter (BEAR) [12.447379545167642]
本論文は,患者への旅行や経験を探索し,モデル化する動機として,アノテーション層を多用したコーパスを提案する。
我々は14のエンティティクラス(環境要因、診断、生化学的プロセス、患者のQOL、病原体、医療状況、治療など)と20の関連クラス(予防、影響、相互作用、原因など)をラベル付けする。
公開データセットは2,100のつぶやきと約6,000のエンティティと3,000のリレーショナルアノテーションで構成されている。
論文 参考訳(メタデータ) (2022-04-21T08:18:44Z) - Towards more patient friendly clinical notes through language models and
ontologies [57.51898902864543]
本稿では,単語の単純化と言語モデリングに基づく医療用テキストの自動作成手法を提案する。
我々は,公開医療文のデータセットペアと,臨床医による簡易化版を用いている。
本手法は,医学フォーラムデータに基づく言語モデルを用いて,文法と本来の意味の両方を保存しながら,より単純な文を生成する。
論文 参考訳(メタデータ) (2021-12-23T16:11:19Z) - A Dynamic Topic Identification and Labeling Approach of COVID-19 Tweets [3.097385298197292]
新型コロナウイルスの感染拡大は、世界中の多くの人々のソーシャルメディア利用に影響している。
本稿では、新型コロナウイルスのツイートの適切なラベルで重要なトピックを動的に識別する問題を定式化し、より広範な世論を概説する。
論文 参考訳(メタデータ) (2021-08-13T16:51:04Z) - Domain-Specific Pretraining for Vertical Search: Case Study on
Biomedical Literature [67.4680600632232]
自己教師型学習は、アノテーションのボトルネックを克服するための有望な方向として現れました。
本稿では,ドメイン固有の事前学習に基づく垂直探索手法を提案する。
我々のシステムはPubMed上で何千万もの記事にスケールでき、Microsoft Biomedical Searchとしてデプロイされている。
論文 参考訳(メタデータ) (2021-06-25T01:02:55Z) - CREATe: Clinical Report Extraction and Annotation Technology [53.731999072534876]
臨床症例報告は、特定の臨床症例の特異な側面を記述した記述である。
これらのレポートを注釈付け、インデックス付け、あるいはキュレートするエンドツーエンドシステムを開発する試みはない。
本稿では,新たな計算資源プラットフォームを提案し,臨床事例レポートの内容の抽出,索引付け,照会を行う。
論文 参考訳(メタデータ) (2021-02-28T16:50:14Z) - Addressing machine learning concept drift reveals declining vaccine
sentiment during the COVID-19 pandemic [0.0]
過去のアノテートデータに基づいてトレーニングされた機械学習アルゴリズムは,現代のデータに適用した場合,性能が低下する可能性があることを示す。
2020年の新型コロナウイルス(COVID-19)パンデミック(COVID-19)パンデミック(パンデミック)のパンデミック(パンデミック)前のデータで訓練されたアルゴリズムは、コンセプトの漂流のためにこの減少をほとんど見逃していただろう。
論文 参考訳(メタデータ) (2020-12-03T18:53:57Z) - BiteNet: Bidirectional Temporal Encoder Network to Predict Medical
Outcomes [53.163089893876645]
本稿では,患者の医療旅行におけるコンテキスト依存と時間的関係を捉える,新たな自己注意機構を提案する。
エンド・ツー・エンドの双方向時間エンコーダネットワーク(BiteNet)が患者の旅路の表現を学習する。
実世界のEHRデータセットを用いた2つの教師付き予測と2つの教師なしクラスタリングタスクにおける手法の有効性を評価した。
論文 参考訳(メタデータ) (2020-09-24T00:42:36Z) - COVI White Paper [67.04578448931741]
接触追跡は、新型コロナウイルスのパンデミックの進行を変える上で不可欠なツールだ。
カナダで開発されたCovid-19の公衆ピアツーピア接触追跡とリスク認識モバイルアプリケーションであるCOVIの理論的、設計、倫理的考察、プライバシ戦略について概説する。
論文 参考訳(メタデータ) (2020-05-18T07:40:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。