論文の概要: Balanced and Explainable Social Media Analysis for Public Health with
Large Language Models
- arxiv url: http://arxiv.org/abs/2309.05951v1
- Date: Tue, 12 Sep 2023 04:15:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-13 14:18:36.748996
- Title: Balanced and Explainable Social Media Analysis for Public Health with
Large Language Models
- Title(参考訳): 大規模言語モデルを用いた公衆衛生のためのバランスと説明可能なソーシャルメディア分析
- Authors: Yan Jiang, Ruihong Qiu, Yi Zhang, Peng-Fei Zhang
- Abstract要約: 公共衛生分析の現在の技術は、BERTや大規模言語モデル(LLM)のような一般的なモデルである。
これらの課題に対処するために、ソーシャルメディアデータセットの高度なデータ拡張手法によって、データの不均衡を克服することができる。
本稿では,公衆衛生に関するソーシャルメディア分析のための新しいALEXフレームワークを提案する。
- 参考スコア(独自算出の注目度): 13.977401672173533
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As social media becomes increasingly popular, more and more public health
activities emerge, which is worth noting for pandemic monitoring and government
decision-making. Current techniques for public health analysis involve popular
models such as BERT and large language models (LLMs). Although recent progress
in LLMs has shown a strong ability to comprehend knowledge by being fine-tuned
on specific domain datasets, the costs of training an in-domain LLM for every
specific public health task are especially expensive. Furthermore, such kinds
of in-domain datasets from social media are generally highly imbalanced, which
will hinder the efficiency of LLMs tuning. To tackle these challenges, the data
imbalance issue can be overcome by sophisticated data augmentation methods for
social media datasets. In addition, the ability of the LLMs can be effectively
utilised by prompting the model properly. In light of the above discussion, in
this paper, a novel ALEX framework is proposed for social media analysis on
public health. Specifically, an augmentation pipeline is developed to resolve
the data imbalance issue. Furthermore, an LLMs explanation mechanism is
proposed by prompting an LLM with the predicted results from BERT models.
Extensive experiments conducted on three tasks at the Social Media Mining for
Health 2023 (SMM4H) competition with the first ranking in two tasks demonstrate
the superior performance of the proposed ALEX method. Our code has been
released in https://github.com/YanJiangJerry/ALEX.
- Abstract(参考訳): ソーシャルメディアの人気が高まるにつれ、公衆衛生活動がますます増え、パンデミックの監視や政府の意思決定にも注目に値する。
公衆衛生分析の現在の技術は、BERTや大規模言語モデル(LLM)のような一般的なモデルを含んでいる。
LLMの最近の進歩は、特定のドメインデータセットを微調整することで、知識を理解する強力な能力を示しているが、特定の公衆衛生タスクごとにドメイン内LSMをトレーニングするコストは特に高い。
さらに、ソーシャルメディアからのそのようなドメイン内データセットは一般に高度に不均衡であり、LCMのチューニング効率を損なう。
これらの課題に対処するために、ソーシャルメディアデータセットの高度なデータ拡張手法によって、データの不均衡を克服することができる。
さらに、モデルを適切に促すことで、llmの能力を有効に利用することができる。
本稿では,上記の議論を踏まえて,ソーシャルメディアによる公衆衛生分析のための新しいalexフレームワークを提案する。
具体的には,データ不均衡問題を解決するために拡張パイプラインを開発した。
さらに, BERT モデルから予測結果を LLM に誘導することで LLM の説明機構を提案する。
ソーシャル・メディア・マイニング・フォー・ヘルス2023(SMM4H)コンペティションにおいて,2つのタスクにランクインした3つのタスクを対象とした大規模な実験を行った。
私たちのコードはhttps://github.com/YanJiangJerry/ALEXで公開されています。
関連論文リスト
- ChatGPT Based Data Augmentation for Improved Parameter-Efficient
Debiasing of LLMs [69.27030571729392]
大型言語モデル(LLM)は有害な社会的バイアスを示す。
そこで本研究では,ChatGPTを用いて合成学習データを生成する手法を提案する。
論文 参考訳(メタデータ) (2024-02-19T01:28:48Z) - Large Language Models: A Survey [69.72787936480394]
大規模言語モデル(LLM)は、広範囲の自然言語タスクにおける強力なパフォーマンスのために、多くの注目を集めている。
LLMの汎用言語理解と生成能力は、膨大なテキストデータに基づいて数十億のモデルのパラメータを訓練することで得られる。
論文 参考訳(メタデータ) (2024-02-09T05:37:09Z) - Countering Misinformation via Emotional Response Generation [15.383062216223971]
ソーシャルメディアプラットフォーム(SMP)における誤情報拡散は、公衆衛生、社会的結束、民主主義に重大な危険をもたらす。
これまでの研究では、社会的訂正が誤情報を抑制する効果的な方法であることが示された。
約1万のクレーム応答対からなる最初の大規模データセットであるVerMouthを提案する。
論文 参考訳(メタデータ) (2023-11-17T15:37:18Z) - Harnessing the Power of LLMs: Evaluating Human-AI Text Co-Creation
through the Lens of News Headline Generation [58.31430028519306]
本研究は, LLMを書き込みに最も有効に活用する方法と, これらのモデルとのインタラクションが, 書き込みプロセスにおけるオーナシップや信頼感にどのように影響するかを考察する。
LLMだけで十分なニュースの見出しを生成することができるが、平均すると、望ましくないモデルのアウトプットを修正するには人間による制御が必要である。
論文 参考訳(メタデータ) (2023-10-16T15:11:01Z) - Automated Claim Matching with Large Language Models: Empowering
Fact-Checkers in the Fight Against Misinformation [11.323961700172175]
FACT-GPTは、大規模言語モデルを用いたファクトチェックのクレームマッチングフェーズを自動化するために設計されたフレームワークである。
このフレームワークは、ファクトチェッカーによって以前否定された主張を支持したり、否定したりする新しいソーシャルメディアコンテンツを識別する。
FACT-GPTを公衆衛生に関連するソーシャルメディアコンテンツのデータセットとして評価した。
論文 参考訳(メタデータ) (2023-10-13T16:21:07Z) - A Survey of Large Language Models for Healthcare: from Data, Technology,
and Applications to Accountability and Ethics [33.71952776775613]
Healthcareドメインの大規模言語モデル(LLM)は、フリーテキストクエリに効果的に応答できるため、興奮と懸念の両方を引き起こしている。
本調査では、現在開発中のLLMs for Healthcareの能力について概説し、開発プロセスについて解説する。
論文 参考訳(メタデータ) (2023-10-09T13:15:23Z) - MentaLLaMA: Interpretable Mental Health Analysis on Social Media with
Large Language Models [28.62967557368565]
ソーシャルメディア上に,最初のマルチタスクおよびマルチソース解釈可能なメンタルヘルスインストラクションデータセットを構築した。
専門家が作成した数発のプロンプトとラベルを収集し,ChatGPTをプロンプトし,その応答から説明を得る。
IMHIデータセットとLLaMA2ファンデーションモデルに基づいて、メンタルヘルス分析のための最初のオープンソースLLMシリーズであるMentalLLaMAを訓練する。
論文 参考訳(メタデータ) (2023-09-24T06:46:08Z) - UQ at #SMM4H 2023: ALEX for Public Health Analysis with Social Media [33.081637097464146]
公共衛生分析の現在の技術は、BERTや大規模言語モデル(LLM)のような一般的なモデルである。
本稿では,ソーシャルメディア上での公衆衛生分析の性能向上を目的とした新しいALEXフレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-08T08:54:55Z) - Bias and Fairness in Large Language Models: A Survey [76.65471160523444]
本稿では,大規模言語モデル(LLM)のバイアス評価と緩和手法に関する総合的な調査を行う。
まず、自然言語処理における社会的偏見と公平性の概念を統合し、形式化し、拡張する。
次に,3つの直感的な2つのバイアス評価法と1つの緩和法を提案し,文献を統一する。
論文 参考訳(メタデータ) (2023-09-02T00:32:55Z) - Aligning Large Language Models with Human: A Survey [53.6014921995006]
広範囲なテキストコーパスで訓練されたLarge Language Models (LLM) は、幅広い自然言語処理(NLP)タスクの先導的なソリューションとして登場した。
その顕著な性能にもかかわらず、これらのモデルは、人間の指示を誤解したり、偏見のあるコンテンツを生成したり、事実的に誤った情報を生成するといった、ある種の制限を受ける傾向にある。
本調査では,これらのアライメント技術の概要について概観する。
論文 参考訳(メタデータ) (2023-07-24T17:44:58Z) - ManiTweet: A New Benchmark for Identifying Manipulation of News on
Social Media [53.51665032295087]
ソーシャルメディア上でのニュースの操作を識別し,ソーシャルメディア投稿の操作を検出し,操作された情報や挿入された情報を特定することを目的とした,新しいタスクを提案する。
この課題を研究するために,データ収集スキーマを提案し,3.6K対のツイートとそれに対応する記事からなるManiTweetと呼ばれるデータセットをキュレートした。
我々の分析では、このタスクは非常に難しいことを示し、大きな言語モデル(LLM)は不満足なパフォーマンスをもたらす。
論文 参考訳(メタデータ) (2023-05-23T16:40:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。