論文の概要: Improved Target-specific Stance Detection on Social Media Platforms by
Delving into Conversation Threads
- arxiv url: http://arxiv.org/abs/2211.03061v1
- Date: Sun, 6 Nov 2022 08:40:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-08 17:48:48.470179
- Title: Improved Target-specific Stance Detection on Social Media Platforms by
Delving into Conversation Threads
- Title(参考訳): 会話スレッドへの埋め込みによるソーシャルメディアプラットフォーム上のターゲット固有のスタンス検出の改善
- Authors: Yupeng Li, Haorui He, Shaonan Wang, Francis C.M. Lau, and Yunya Song
- Abstract要約: 本稿では,会話姿勢検出という新しい課題を提案する。
データインスタンスとその対応する会話スレッドが与えられた場合、所定のターゲット(例えば、COVID-19ワクチン接種)に対するスタンスを推論する。
データインスタンスと会話スレッドの両方から所望のスタンスを推測するため,会話スレッドにコンテキスト情報を組み込んだBranch-BERTモデルを提案する。
- 参考スコア(独自算出の注目度): 12.007570049217398
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Target-specific stance detection on social media, which aims at classifying a
textual data instance such as a post or a comment into a stance class of a
target issue, has become an emerging opinion mining paradigm of importance. An
example application would be to overcome vaccine hesitancy in combating the
coronavirus pandemic. However, existing stance detection strategies rely merely
on the individual instances which cannot always capture the expressed stance of
a given target. In response, we address a new task called conversational stance
detection which is to infer the stance towards a given target (e.g., COVID-19
vaccination) when given a data instance and its corresponding conversation
thread. To tackle the task, we first propose a benchmarking conversational
stance detection (CSD) dataset with annotations of stances and the structures
of conversation threads among the instances based on six major social media
platforms in Hong Kong. To infer the desired stances from both data instances
and conversation threads, we propose a model called Branch-BERT that
incorporates contextual information in conversation threads. Extensive
experiments on our CSD dataset show that our proposed model outperforms all the
baseline models that do not make use of contextual information. Specifically,
it improves the F1 score by 10.3% compared with the state-of-the-art method in
the SemEval-2016 Task 6 competition. This shows the potential of incorporating
rich contextual information on detecting target-specific stances on social
media platforms and implies a more practical way to construct future stance
detection tasks.
- Abstract(参考訳): 投稿やコメントなどのテキストデータインスタンスをターゲット問題のスタンスクラスに分類することを目的としたソーシャルメディアにおけるターゲット固有のスタンス検出は、重要度の高い意見マイニングパラダイムとして注目されている。
例を挙げると、新型コロナウイルスのパンデミックとの戦いにおけるワクチンの忍耐を克服する。
しかし、既存のスタンス検出戦略は、特定のターゲットの表現されたスタンスを常にキャプチャできない個々のインスタンスにのみ依存する。
これに対し、データインスタンスとその対応する会話スレッドが与えられたとき、所定のターゲット(例えば、COVID-19ワクチン接種)に対する姿勢を推測する会話姿勢検出と呼ばれる新しいタスクに対処する。
そこで本研究では,まず,香港の6つの主要ソーシャルメディアプラットフォームを基盤として,スタンスと会話スレッドの構造をアノテーションとしたcsd(benchmarking conversational stance detection)データセットを提案する。
データインスタンスと会話スレッドの両方から所望のスタンスを推測するため,会話スレッドにコンテキスト情報を組み込んだBranch-BERTモデルを提案する。
csdデータセットの広範な実験により,提案モデルが文脈情報を使用しないベースラインモデルよりも優れていることが示された。
具体的には、SemEval-2016 Task 6コンペティションの最先端メソッドと比較して、F1スコアを10.3%改善する。
これは、ソーシャルメディアプラットフォーム上でターゲット固有のスタンスを検出するために、リッチなコンテキスト情報を組み込む可能性を示し、将来のスタンス検出タスクを構築するより実用的な方法を示している。
関連論文リスト
- Multimodal Multi-turn Conversation Stance Detection: A Challenge Dataset and Effective Model [9.413870182630362]
我々は,MmMtCSDと呼ばれるマルチモーダル対話姿勢検出データセットを導入する。
本稿では,テキストおよび視覚的モーダルから共同姿勢表現を学習する,多モーダルな大規模言語モデル姿勢検出フレームワーク(MLLM-SD)を提案する。
MmMtCSD実験は,マルチモーダル姿勢検出のためのMLLM-SD手法の最先端性能を示す。
論文 参考訳(メタデータ) (2024-09-01T03:16:30Z) - Stance Reasoner: Zero-Shot Stance Detection on Social Media with Explicit Reasoning [10.822701164802307]
ソーシャルメディアにおけるゼロショットスタンス検出のアプローチであるスタンス・レーソナーを提示する。
我々は、事前学習された言語モデルを世界知識の源泉として、中間推論ステップを生成するために、チェーン・オブ・コンテクスト・ラーニング・アプローチを用いています。
Stance Reasonerは、現在の最先端モデルを3つのTwitterデータセットで上回っている。
論文 参考訳(メタデータ) (2024-03-22T00:58:28Z) - A Challenge Dataset and Effective Models for Conversational Stance Detection [26.208989232347058]
マルチターン会話姿勢検出データセット(textbfMT-CSD)を導入する。
本稿では,会話データに固有の長距離および短距離の依存関係に対処するグローバルローカルアテンションネットワーク(textbfGLAN)を提案する。
私たちのデータセットは、ドメイン間スタンス検出の進歩を触媒する貴重なリソースとして役立ちます。
論文 参考訳(メタデータ) (2024-03-17T08:51:01Z) - SocialPET: Socially Informed Pattern Exploiting Training for Few-Shot
Stance Detection in Social Media [8.556183465416156]
スタンス検出とは、ソーシャルメディア投稿の目的に対する視点を「好み」や「アゲインスト」として判断するタスクである。
SocialPETは、そのタスクに言語モデルを活用するための社会的に情報を得たアプローチである。
マルチターゲットとPスタンスという2つのスタンスデータセットに対するSocialPETの有効性を実証する。
論文 参考訳(メタデータ) (2024-03-08T11:00:09Z) - Multi-modal Stance Detection: New Datasets and Model [56.97470987479277]
テキストと画像からなるツイートに対するマルチモーダル姿勢検出について検討する。
我々は、シンプルで効果的なマルチモーダル・プロンプト・チューニング・フレームワーク(TMPT)を提案する。
TMPTはマルチモーダル姿勢検出における最先端性能を実現する。
論文 参考訳(メタデータ) (2024-02-22T05:24:19Z) - Integrating Self-supervised Speech Model with Pseudo Word-level Targets
from Visually-grounded Speech Model [57.78191634042409]
擬似単語レベルのターゲットを学習プロセスに統合するフレームワークであるPseudo-Word HuBERT(PW-HuBERT)を提案する。
4つの音声言語理解(SLU)ベンチマークによる実験結果から,意味情報の収集におけるモデルの有用性が示唆された。
論文 参考訳(メタデータ) (2024-02-08T16:55:21Z) - Few-shot Learning for Cross-Target Stance Detection by Aggregating
Multimodal Embeddings [16.39344929765961]
テキストとネットワークの両方の特徴からマルチモーダルな埋め込みを集約する新しいモデルであるCT-TNを導入する。
本研究は,ソース・デスティネーション・ターゲット・ペアの6つの異なる組み合わせについて,数ショットのクロスターゲット・シナリオで実験を行う。
異なる数のショットで実験したところ、CT-TNは目的地の300のインスタンスを見た後、他のモデルよりも優れていた。
論文 参考訳(メタデータ) (2023-01-11T15:52:55Z) - Contextual information integration for stance detection via
cross-attention [59.662413798388485]
スタンス検出は、著者の目標に対する姿勢を特定することを扱う。
既存のスタンス検出モデルの多くは、関連するコンテキスト情報を考慮していないため、制限されている。
文脈情報をテキストとして統合する手法を提案する。
論文 参考訳(メタデータ) (2022-11-03T15:04:29Z) - Few-Shot Stance Detection via Target-Aware Prompt Distillation [48.40269795901453]
本論文は,知識ベースや少人数の学習者を対象とした事前学習型言語モデル(PLM)の可能性に着想を得たものである。
PLMは、ターゲットに対して重要なコンテキスト情報を提供し、プロンプトを介して数発の学習を可能にする。
姿勢検出タスクにおいて,対象が重要な役割を担っていることを考慮し,目標認識プロンプトを設計し,新しい言語化手法を提案する。
論文 参考訳(メタデータ) (2022-06-27T12:04:14Z) - Unpaired Referring Expression Grounding via Bidirectional Cross-Modal
Matching [53.27673119360868]
表現基盤の参照はコンピュータビジョンにおいて重要かつ困難な課題である。
本稿では,これらの課題に対処する新しい双方向クロスモーダルマッチング(BiCM)フレームワークを提案する。
私たちのフレームワークは、2つの一般的なグラウンドデータセットで、以前の作業の6.55%と9.94%を上回っています。
論文 参考訳(メタデータ) (2022-01-18T01:13:19Z) - Exploiting Unsupervised Data for Emotion Recognition in Conversations [76.01690906995286]
会話における感情認識(Emotion Recognition in Conversations:ERC)は、会話における話者の感情状態を予測することを目的としている。
ERCタスクの教師付きデータは限られている。
教師なし会話データを活用する新しい手法を提案する。
論文 参考訳(メタデータ) (2020-10-02T13:28:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。