論文の概要: Incorporating Emotions into Health Mention Classification Task on Social
Media
- arxiv url: http://arxiv.org/abs/2212.05039v1
- Date: Fri, 9 Dec 2022 18:38:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-12 14:21:15.122561
- Title: Incorporating Emotions into Health Mention Classification Task on Social
Media
- Title(参考訳): ソーシャルメディア上での健康言及分類タスクに感情を組み込む
- Authors: Olanrewaju Tahir Aduragba, Jialin Yu and Alexandra I. Cristea
- Abstract要約: 情緒的特徴を取り入れた健康言及分類のための枠組みを提案する。
我々は,ソーシャルメディアプラットフォームによる5つのHMC関連データセットに対するアプローチを評価した。
以上の結果から,感情的な知識を取り入れたHMCモデルが有効な選択肢であることが示唆された。
- 参考スコア(独自算出の注目度): 70.23889100356091
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The health mention classification (HMC) task is the process of identifying
and classifying mentions of health-related concepts in text. This can be useful
for identifying and tracking the spread of diseases through social media posts.
However, this is a non-trivial task. Here we build on recent studies suggesting
that using emotional information may improve upon this task. Our study results
in a framework for health mention classification that incorporates affective
features. We present two methods, an intermediate task fine-tuning approach
(implicit) and a multi-feature fusion approach (explicit) to incorporate
emotions into our target task of HMC. We evaluated our approach on 5
HMC-related datasets from different social media platforms including three from
Twitter, one from Reddit and another from a combination of social media
sources. Extensive experiments demonstrate that our approach results in
statistically significant performance gains on HMC tasks. By using the
multi-feature fusion approach, we achieve at least a 3% improvement in F1 score
over BERT baselines across all datasets. We also show that considering only
negative emotions does not significantly affect performance on the HMC task.
Additionally, our results indicate that HMC models infused with emotional
knowledge are an effective alternative, especially when other HMC datasets are
unavailable for domain-specific fine-tuning. The source code for our models is
freely available at https://github.com/tahirlanre/Emotion_PHM.
- Abstract(参考訳): health mention classification (hmc) タスクは、テキスト中の健康関連概念の言及を識別し分類するプロセスである。
これは、ソーシャルメディア投稿を通じて病気の拡散を識別し追跡するのに有用である。
しかし、これは非自明な仕事です。
本稿では,感情情報の利用がこの課題により改善される可能性を示唆する最近の研究について述べる。
本研究は,情緒的特徴を取り入れた健康基準分類の枠組みである。
HMCのタスクに感情を組み込むための中間タスク微調整手法(シンプル)と多機能融合手法(特殊)の2つの手法を提案する。
我々は,twitterから3つ,redditから1つ,ソーシャルメディアソースから2つ,ソーシャルメディアプラットフォームから5つのhmc関連データセットについて評価した。
大規模な実験により,HMCタスクにおける統計的に有意な性能向上が得られた。
多機能融合手法を用いることで,全データセットのbertベースラインに対して,f1スコアが少なくとも3%向上した。
また、負の感情のみを考慮すると、HMCタスクのパフォーマンスに悪影響を及ぼさないことを示す。
さらに,本研究の結果から,HMCデータセットがドメイン固有の微調整に利用できない場合,感情的知識を取り入れたHMCモデルを効果的に活用できることが示唆された。
私たちのモデルのソースコードはhttps://github.com/tahirlanre/emotion_phmで無料で利用できます。
関連論文リスト
- What Makes Good Collaborative Views? Contrastive Mutual Information Maximization for Multi-Agent Perception [52.41695608928129]
マルチエージェント認識(MAP)は、複数のソースからのデータを解釈することで、自律システムが複雑な環境を理解することを可能にする。
本稿では,MAPにおける協調的視点の「良い」特性を探求することに焦点を当てた中間的協調について検討する。
中間コラボレーションのための新しいフレームワークCMiMCを提案する。
論文 参考訳(メタデータ) (2024-03-15T07:18:55Z) - A Two-Stage Multimodal Emotion Recognition Model Based on Graph
Contrastive Learning [13.197551708300345]
グラフコントラスト学習(TS-GCL)に基づく2段階感情認識モデルを提案する。
TS-GCL は IEMOCAP と MELD のデータセットに対して,従来の手法に比べて優れた性能を示した。
論文 参考訳(メタデータ) (2024-01-03T01:58:31Z) - Deep Imbalanced Learning for Multimodal Emotion Recognition in
Conversations [15.705757672984662]
会話におけるマルチモーダル感情認識(MERC)は、マシンインテリジェンスにとって重要な開発方向である。
MERCのデータの多くは自然に感情カテゴリーの不均衡な分布を示しており、研究者は感情認識に対する不均衡なデータの負の影響を無視している。
生データにおける感情カテゴリーの不均衡分布に対処するクラス境界拡張表現学習(CBERL)モデルを提案する。
我々は,IEMOCAPおよびMELDベンチマークデータセットの広範な実験を行い,CBERLが感情認識の有効性において一定の性能向上を達成したことを示す。
論文 参考訳(メタデータ) (2023-12-11T12:35:17Z) - Data Augmentation for Emotion Detection in Small Imbalanced Text Data [0.0]
課題の1つは、感情で注釈付けされた利用可能なデータセットが不足していることだ。
我々は、小さな不均衡なデータセットに適用した場合に、データ拡張技術が与える影響を正確に調査した。
実験結果から,分類器モデルの訓練に拡張データを用いることで,大幅な改善が得られた。
論文 参考訳(メタデータ) (2023-10-25T21:29:36Z) - TMR: Text-to-Motion Retrieval Using Contrastive 3D Human Motion
Synthesis [59.465092047829835]
我々は、テキストから3次元の人間の動きを抽出する簡単な方法であるTMRを提案する。
提案手法は,最先端のテキスト-モーション合成モデルTEMOSを拡張した。
運動生成損失の維持は、対照的な訓練とともに、優れた性能を得るためには不可欠であることを示す。
論文 参考訳(メタデータ) (2023-05-02T17:52:41Z) - A Marker-based Neural Network System for Extracting Social Determinants
of Health [12.6970199179668]
健康の社会的決定因子(SDoH)は、患者の医療の質と格差を左右する。
多くのSDoHアイテムは、電子健康記録の構造化形式でコード化されていない。
我々は,臨床ノートから自動的にSDoH情報を抽出する,名前付きエンティティ認識(NER),関係分類(RC),テキスト分類手法を含む多段階パイプラインを探索する。
論文 参考訳(メタデータ) (2022-12-24T18:40:23Z) - Nested Named Entity Recognition from Medical Texts: An Adaptive Shared
Network Architecture with Attentive CRF [53.55504611255664]
ネスト現象によるジレンマを解決するために,ASACと呼ばれる新しい手法を提案する。
提案手法は,適応共有(AS)部と注意条件付きランダムフィールド(ACRF)モジュールの2つの鍵モジュールを含む。
我々のモデルは、異なるカテゴリのエンティティ間の暗黙の区別と関係をキャプチャすることで、より良いエンティティ表現を学ぶことができる。
論文 参考訳(メタデータ) (2022-11-09T09:23:56Z) - Multimodal Emotion Recognition with Modality-Pairwise Unsupervised
Contrastive Loss [80.79641247882012]
マルチモーダル感情認識(MER)のための教師なし特徴学習に着目した。
個別の感情を考慮し、モダリティテキスト、音声、視覚が使用される。
本手法は, 対のモダリティ間のコントラスト損失に基づくもので, MER文学における最初の試みである。
論文 参考訳(メタデータ) (2022-07-23T10:11:24Z) - Adding more data does not always help: A study in medical conversation
summarization with PEGASUS [5.276054618115727]
PEGを用いた転帰学習医療会話要約におけるデータセットサイズの影響について検討した。
また,分類環境での成功を受けて,低データ体制における様々な反復的なラベル付け戦略の評価を行った。
我々の研究は、医療会話要約への分類における低データ体制技術の導入の成功と課題に光を当てている。
論文 参考訳(メタデータ) (2021-11-15T07:27:35Z) - ConsNet: Learning Consistency Graph for Zero-Shot Human-Object
Interaction Detection [101.56529337489417]
画像中のHuman, Action, Object>の形のHOIインスタンスを検出・認識することを目的としたHuman-Object Interaction (HOI) Detectionの問題点を考察する。
我々は、オブジェクト、アクション、インタラクション間の多レベルコンパレンシーは、稀な、あるいは以前には見られなかったHOIのセマンティック表現を生成するための強力な手がかりであると主張している。
提案モデルでは,人-対象のペアの視覚的特徴とHOIラベルの単語埋め込みを入力とし,それらを視覚-意味的関節埋め込み空間にマッピングし,類似度を計測して検出結果を得る。
論文 参考訳(メタデータ) (2020-08-14T09:11:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。