論文の概要: UQ at #SMM4H 2023: ALEX for Public Health Analysis with Social Media
- arxiv url: http://arxiv.org/abs/2309.04213v2
- Date: Tue, 12 Sep 2023 07:19:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-13 16:10:14.288133
- Title: UQ at #SMM4H 2023: ALEX for Public Health Analysis with Social Media
- Title(参考訳): UQ at #SMM4H 2023: ALEX for Public Health Analysis with Social Media
- Authors: Yan Jiang, Ruihong Qiu, Yi Zhang, Zi Huang
- Abstract要約: 公共衛生分析の現在の技術は、BERTや大規模言語モデル(LLM)のような一般的なモデルである。
本稿では,ソーシャルメディア上での公衆衛生分析の性能向上を目的とした新しいALEXフレームワークを提案する。
- 参考スコア(独自算出の注目度): 33.081637097464146
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As social media becomes increasingly popular, more and more activities
related to public health emerge. Current techniques for public health analysis
involve popular models such as BERT and large language models (LLMs). However,
the costs of training in-domain LLMs for public health are especially
expensive. Furthermore, such kinds of in-domain datasets from social media are
generally imbalanced. To tackle these challenges, the data imbalance issue can
be overcome by data augmentation and balanced training. Moreover, the ability
of the LLMs can be effectively utilized by prompting the model properly. In
this paper, a novel ALEX framework is proposed to improve the performance of
public health analysis on social media by adopting an LLMs explanation
mechanism. Results show that our ALEX model got the best performance among all
submissions in both Task 2 and Task 4 with a high score in Task 1 in Social
Media Mining for Health 2023 (SMM4H)[1]. Our code has been released at https://
github.com/YanJiangJerry/ALEX.
- Abstract(参考訳): ソーシャルメディアの人気が高まるにつれ、公衆衛生に関する活動がますます増えていく。
公衆衛生分析の現在の技術は、BERTや大規模言語モデル(LLM)のような一般的なモデルを含んでいる。
しかし、公衆衛生のためのドメイン内LCMのトレーニングのコストは特に高い。
さらに、ソーシャルメディアからのそのようなドメイン内データセットは、一般的に不均衡である。
これらの課題に取り組むために、データの強化とバランスのとれたトレーニングによって、データの不均衡を克服できる。
また、モデルを適切に促すことで、llmの能力を有効に活用することができる。
本稿では, LLM の説明機構を採用することで, ソーシャルメディア上での公衆衛生分析の性能向上を図るための新しい ALEX フレームワークを提案する。
その結果,ALEXモデルでは第2タスクと第4タスクの両方で,第1タスクは第2023ソーシャルメディアマイニング(SMM4H)[1]で高いスコアを示した。
私たちのコードはhttps:// github.com/YanJiangJerry/ALEXでリリースされています。
関連論文リスト
- SS-GEN: A Social Story Generation Framework with Large Language Models [87.11067593512716]
自閉症スペクトラム障害(ASD)を持つ子供たちは、しばしば社会的状況を誤解し、日々のルーチンに参加するのに苦労する。
社会物語は伝統的にこれらの課題に対処するために厳格な制約の下で心理学の専門家によって作られた。
幅広い範囲でリアルタイムでソーシャルストーリーを生成するフレームワークである textbfSS-GEN を提案する。
論文 参考訳(メタデータ) (2024-06-22T00:14:48Z) - SMP Challenge: An Overview and Analysis of Social Media Prediction Challenge [63.311045291016555]
ソーシャルメディアの人気予測(SMPP)は、オンライン投稿の今後の人気値を自動予測する重要なタスクである。
本稿では,課題,データ,研究の進展について要約する。
論文 参考訳(メタデータ) (2024-05-17T02:36:14Z) - Retrieval Augmented Thought Process for Private Data Handling in Healthcare [53.89406286212502]
Retrieval-Augmented Thought Process (RATP)を紹介する。
RATPは大規模言語モデル(LLM)の思考生成を定式化する
電子カルテのプライベートデータセットにおいて、RATPは、質問応答タスクのコンテキスト内検索強化生成と比較して35%の精度を達成している。
論文 参考訳(メタデータ) (2024-02-12T17:17:50Z) - Explorers at #SMM4H 2023: Enhancing BERT for Health Applications through
Knowledge and Model Fusion [3.386401892906348]
ソーシャルメディアは人間の健康を研究する上で貴重なデータ資源となっている。
本稿では,#SMM4H 2023共有タスクへの参加方法について概説する。
論文 参考訳(メタデータ) (2023-12-17T08:52:05Z) - Countering Misinformation via Emotional Response Generation [15.383062216223971]
ソーシャルメディアプラットフォーム(SMP)における誤情報拡散は、公衆衛生、社会的結束、民主主義に重大な危険をもたらす。
これまでの研究では、社会的訂正が誤情報を抑制する効果的な方法であることが示された。
約1万のクレーム応答対からなる最初の大規模データセットであるVerMouthを提案する。
論文 参考訳(メタデータ) (2023-11-17T15:37:18Z) - Balanced and Explainable Social Media Analysis for Public Health with
Large Language Models [13.977401672173533]
公共衛生分析の現在の技術は、BERTや大規模言語モデル(LLM)のような一般的なモデルである。
これらの課題に対処するために、ソーシャルメディアデータセットの高度なデータ拡張手法によって、データの不均衡を克服することができる。
本稿では,公衆衛生に関するソーシャルメディア分析のための新しいALEXフレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-12T04:15:34Z) - ManiTweet: A New Benchmark for Identifying Manipulation of News on Social Media [74.93847489218008]
ソーシャルメディア上でのニュースの操作を識別し,ソーシャルメディア投稿の操作を検出し,操作された情報や挿入された情報を特定することを目的とした,新しいタスクを提案する。
この課題を研究するために,データ収集スキーマを提案し,3.6K対のツイートとそれに対応する記事からなるManiTweetと呼ばれるデータセットをキュレートした。
我々の分析では、このタスクは非常に難しいことを示し、大きな言語モデル(LLM)は不満足なパフォーマンスをもたらす。
論文 参考訳(メタデータ) (2023-05-23T16:40:07Z) - Connecting Fairness in Machine Learning with Public Health Equity [0.0]
データとモデル設計のバイアスは、特定の保護されたグループの格差をもたらし、医療における既存の不平等を増幅します。
本研究は,MLフェアネスに関する基礎文献を要約し,データとモデルのバイアスを特定し緩和するための枠組みを提案する。
ケーススタディは、このフレームワークがこれらのバイアスを防ぎ、公衆衛生における公平で公平なMLモデルの必要性を強調するためにどのように使用できるかを示している。
論文 参考訳(メタデータ) (2023-04-08T10:21:49Z) - Benchmarking for Public Health Surveillance tasks on Social Media with a
Domain-Specific Pretrained Language Model [9.070482285386387]
PHS-BERTは、ソーシャルメディア上の公衆衛生監視に関連するタスクを特定するトランスフォーマーベースの言語モデルである。
PHS-BERTは、主に限られたタスクで評価されている既存のPLMと比較して、25のテストデータセットすべてで最先端のパフォーマンスを達成した。
論文 参考訳(メタデータ) (2022-04-09T18:01:18Z) - MET: Multimodal Perception of Engagement for Telehealth [52.54282887530756]
ビデオから人間のエンゲージメントレベルを知覚する学習ベースアルゴリズムMETを提案する。
我々はメンタルヘルス患者のエンゲージメント検出のための新しいデータセットMEDICAをリリースした。
論文 参考訳(メタデータ) (2020-11-17T15:18:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。