論文の概要: Social media mining for toxicovigilance of prescription medications:
End-to-end pipeline, challenges and future work
- arxiv url: http://arxiv.org/abs/2211.10443v2
- Date: Sat, 2 Sep 2023 04:40:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-07 07:13:39.520852
- Title: Social media mining for toxicovigilance of prescription medications:
End-to-end pipeline, challenges and future work
- Title(参考訳): 薬物中毒に対するソーシャルメディアマイニング--エンドツーエンドパイプライン,課題,今後の課題
- Authors: Abeed Sarker
- Abstract要約: 物質使用、物質使用障害、過剰摂取は世界中の公衆衛生問題である。
従来の監視システムは時代遅れであり、ソーシャルメディアはタイムリーなデータの潜在的に有用な情報源である。
ソーシャルメディアから非医療用処方薬使用に関する情報をマイニングするための高度なエンドツーエンドパイプラインを開発した。
- 参考スコア(独自算出の注目度): 2.749183598855401
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Substance use, substance use disorder, and overdoses related to substance use
are major public health problems globally and in the United States. A key
aspect of addressing these problems from a public health standpoint is improved
surveillance. Traditional surveillance systems are laggy, and social media are
potentially useful sources of timely data. However, mining knowledge from
social media is challenging, and requires the development of advanced
artificial intelligence, specifically natural language processing (NLP) and
machine learning methods. We developed a sophisticated end-to-end pipeline for
mining information about nonmedical prescription medication use from social
media, namely Twitter and Reddit. Our pipeline employs supervised machine
learning and NLP for filtering out noise and characterizing the chatter. In
this paper, we describe our end-to-end pipeline developed over four years. In
addition to describing our data mining infrastructure, we discuss existing
challenges in social media mining for toxicovigilance, and possible future
research directions.
- Abstract(参考訳): 薬物使用、薬物使用障害、薬物使用に関する過剰摂取は、世界的にも米国でも主要な公衆衛生上の問題である。
公衆衛生の観点からこれらの問題を解決する重要な側面は監視の改善である。
従来の監視システムはラグジーであり、ソーシャルメディアはタイムリーなデータソースとして潜在的に有用である。
しかし、ソーシャルメディアからの知識のマイニングは困難であり、高度な人工知能、特に自然言語処理(NLP)と機械学習手法の開発が必要である。
我々は、ソーシャルメディア、すなわちTwitterとRedditから非医療用処方薬に関する情報をマイニングするための高度なエンドツーエンドパイプラインを開発した。
私たちのパイプラインでは、教師付き機械学習とNLPを使用してノイズをフィルタリングし、チャットを特徴付ける。
本稿では,4年間で開発されたエンドツーエンドパイプラインについて述べる。
データマイニングのインフラを説明することに加え、ソーシャルメディアマイニングにおける有毒物質に対する既存の課題と今後の研究の方向性について論じる。
関連論文リスト
- Reddit-Impacts: A Named Entity Recognition Dataset for Analyzing Clinical and Social Effects of Substance Use Derived from Social Media [6.138126219622993]
物質利用障害(SUD)は、データ駆動研究を通じて、問題とそのトレンドの理解を深める必要がある、世界的な関心事である。
ソーシャルメディアは、SUDに関するユニークな重要な情報源であり、特にそのような情報源のデータは、生きた経験を持つ人々によってしばしば生成されるためである。
本稿では,処方と違法なオピオイド,およびオピオイド使用障害の薬物に関する議論を専門とするサブレディットからキュレートされた,難解な名前付きエンティティ認識(NER)データセットであるReddit-Impactsを紹介する。
このデータセットは、研究の少ないが重要な、物質利用の側面に特に焦点を絞っている。
論文 参考訳(メタデータ) (2024-05-09T23:43:57Z) - Social Intelligence Data Infrastructure: Structuring the Present and Navigating the Future [59.78608958395464]
私たちは、包括的な社会AI分類と480のNLPデータセットからなるデータライブラリで構成される、ソーシャルAIデータインフラストラクチャを構築しています。
インフラストラクチャにより、既存のデータセットの取り組みを分析し、異なるソーシャルインテリジェンスの観点から言語モデルのパフォーマンスを評価することができます。
多面的なデータセットの必要性、言語と文化の多様性の向上、より長期にわたる社会的状況、そして将来のソーシャルインテリジェンスデータ活動におけるよりインタラクティブなデータの必要性が示されている。
論文 参考訳(メタデータ) (2024-02-28T00:22:42Z) - Towards AGI in Computer Vision: Lessons Learned from GPT and Large
Language Models [98.72986679502871]
大規模言語モデル(LLM)を利用したチャットシステムが出現し、人工知能(AGI)を実現するための有望な方向へと急速に成長する
しかし、コンピュータビジョン(CV)におけるAGIへの道のりは未だに不明である。
CVアルゴリズムを世界規模で対話可能な環境に配置し、その動作に関する将来のフレームを予測するための事前トレーニングを行い、さまざまなタスクをこなすための命令で微調整するパイプラインを想像する。
論文 参考訳(メタデータ) (2023-06-14T17:15:01Z) - Voice-Based Conversational Agents and Knowledge Graphs for Improving
News Search in Assisted Living [4.492444446637856]
生活支援のための知識グラフと会話エージェントを組み合わせた革新的なソリューションを提案する。
グラフデータベースを利用してセマンティックなニュースデータを構築することで、ケア依存者が関連するニュースを簡単に発見し、パーソナライズされたレコメンデーションを提供するのに役立つ。
論文 参考訳(メタデータ) (2023-03-24T21:49:27Z) - ImDrug: A Benchmark for Deep Imbalanced Learning in AI-aided Drug
Discovery [79.08833067391093]
現実世界の医薬品のデータセットは、しばしば高度に不均衡な分布を示す。
ImDrugはオープンソースのPythonライブラリを備えたベンチマークで、4つの不均衡設定、11のAI対応データセット、54の学習タスク、16のベースラインアルゴリズムで構成されています。
ドラッグ発見パイプラインの幅広い範囲にまたがる問題やソリューションに対して、アクセス可能でカスタマイズ可能なテストベッドを提供する。
論文 参考訳(メタデータ) (2022-09-16T13:35:57Z) - Secure Multi-Party Computation based Privacy Preserving Data Analysis in
Healthcare IoT Systems [0.0]
デジタル環境に転送されたデータは、プライバシー漏洩の脅威となる。
本研究では,フェデレート学習に基づくプライバシ問題に対処するモデルを提案する。
提案モデルでは,広範囲なプライバシとデータ解析を行い,高い性能を実現する。
論文 参考訳(メタデータ) (2021-09-29T10:39:25Z) - Constraint Programming Algorithms for Route Planning Exploiting
Geometrical Information [91.3755431537592]
本稿では,経路計画問題に対する新しいアルゴリズムの開発に関する現在の研究動向について概説する。
これまでの研究は、特にユークリッド旅行セールスパーソン問題(ユークリッドTSP)に焦点を当ててきた。
目的は、将来ユークリッド自動車問題(ユークリッドVRP)など、同じカテゴリーの他の問題にも得られる結果を活用することである。
論文 参考訳(メタデータ) (2020-09-22T00:51:45Z) - A Pipeline to Understand Emerging Illness via Social Media Data
Analysis: A Case Study on Breast Implant Illness [1.4646957596560077]
乳房インプラント疾患(BII)はソーシャルメディア上で広く議論されているが、医学文献では曖昧に定義されている。
自然言語処理(NLP)とトピックモデリングを用いたソーシャルメディアデータ分析のパイプラインを構築した。
当パイプラインでは, 毒性, 癌, 精神健康に関する話題について検討した。
論文 参考訳(メタデータ) (2020-08-25T19:00:25Z) - Leveraging Multi-Source Weak Social Supervision for Early Detection of
Fake News [67.53424807783414]
ソーシャルメディアは、人々が前例のない速度でオンライン活動に参加することを可能にする。
この制限のないアクセスは、誤情報や偽ニュースの拡散を悪化させ、その緩和のために早期に検出されない限り混乱と混乱を引き起こす可能性がある。
ソーシャルエンゲージメントからの弱い信号とともに、限られた量のクリーンデータを活用して、メタラーニングフレームワークでディープニューラルネットワークをトレーニングし、さまざまな弱いインスタンスの品質を推定します。
実世界のデータセットの実験では、提案されたフレームワークは、予測時にユーザーエンゲージメントを使わずに、フェイクニュースを早期に検出するための最先端のベースラインを上回っている。
論文 参考訳(メタデータ) (2020-04-03T18:26:33Z) - Curating Social Media Data [0.0]
本稿では,ソーシャルデータのクリーン化とキュレーションを可能にするデータキュレーションパイプラインであるCrowdCorrectを提案する。
当社のパイプラインは,既存の社内ツールを使用してソーシャルメディアデータのコーパスから自動機能抽出を行う。
このパイプラインの実装には、生データをキュレートするクラウドユーザの貢献を促進するために、マイクロタスクを自動生成するツールセットも含まれている。
論文 参考訳(メタデータ) (2020-02-21T10:07:15Z) - Mining Disinformation and Fake News: Concepts, Methods, and Recent
Advancements [55.33496599723126]
偽ニュースを含む偽ニュースは 爆発的な成長により グローバルな現象になっています
偽情報や偽ニュースを検知する最近の進歩にもかかわらず、その複雑さ、多様性、多様性、事実チェックやアノテーションのコストが原因で、いまだに自明ではない。
論文 参考訳(メタデータ) (2020-01-02T21:01:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。