論文の概要: Zero-Shot Conversational Stance Detection: Dataset and Approaches
- arxiv url: http://arxiv.org/abs/2506.17693v1
- Date: Sat, 21 Jun 2025 12:02:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-24 19:06:36.542853
- Title: Zero-Shot Conversational Stance Detection: Dataset and Approaches
- Title(参考訳): ゼロショット会話スタンス検出:データセットとアプローチ
- Authors: Yuzhe Ding, Kang He, Bobo Li, Li Zheng, Haijun He, Fei Li, Chong Teng, Donghong Ji,
- Abstract要約: スタンス検出は、ソーシャルメディアデータを用いて特定のターゲットに対する世論を識別することを目的としている。
我々は、ZS-CSDという、大規模で高品質なゼロショットスタンス検出データセットを手動でキュレートする。
SITPCL, 話者インタラクションとターゲット認識型プロトタイプ型コントラスト学習モデルを提案し, ゼロショット環境でのベンチマーク性能を確立する。
- 参考スコア(独自算出の注目度): 24.892337124161983
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Stance detection, which aims to identify public opinion towards specific targets using social media data, is an important yet challenging task. With the increasing number of online debates among social media users, conversational stance detection has become a crucial research area. However, existing conversational stance detection datasets are restricted to a limited set of specific targets, which constrains the effectiveness of stance detection models when encountering a large number of unseen targets in real-world applications. To bridge this gap, we manually curate a large-scale, high-quality zero-shot conversational stance detection dataset, named ZS-CSD, comprising 280 targets across two distinct target types. Leveraging the ZS-CSD dataset, we propose SITPCL, a speaker interaction and target-aware prototypical contrastive learning model, and establish the benchmark performance in the zero-shot setting. Experimental results demonstrate that our proposed SITPCL model achieves state-of-the-art performance in zero-shot conversational stance detection. Notably, the SITPCL model attains only an F1-macro score of 43.81%, highlighting the persistent challenges in zero-shot conversational stance detection.
- Abstract(参考訳): ソーシャルメディアデータを使って特定のターゲットに対する世論を識別することを目的としたスタンス検出は、重要な課題でありながら難しい課題である。
ソーシャルメディア利用者の間でのオンライン討論の増加に伴い、会話の姿勢検出が重要な研究領域となっている。
しかし、既存の会話的姿勢検出データセットは特定のターゲットの限られたセットに制限されており、現実世界のアプリケーションで多くの未知のターゲットに遭遇する際の姿勢検出モデルの有効性を制限している。
このギャップを埋めるために、我々はZS-CSDという名前の大規模で高品質なゼロショットスタンス検出データセットを手動でキュレートした。
ZS-CSDデータセットを活用することで、話者インタラクションとターゲット対応のプロトタイプ型コントラスト学習モデルであるSITPCLを提案し、ゼロショット設定でベンチマーク性能を確立する。
実験により,提案したSITPCLモデルにより,ゼロショット対話姿勢検出における最先端性能が得られた。
特に、SITPCLモデルはF1マクロスコアが43.81%にしか達せず、ゼロショットの会話姿勢検出における永続的な課題を浮き彫りにしている。
関連論文リスト
- Rethinking stance detection: A theoretically-informed research agenda for user-level inference using language models [6.13550450196734]
スタンス検出は自然言語処理研究において一般的な課題となっている。
我々は,(i)スタンスの理論的概念化の欠如,(ii)個人レベルでのスタンス処理に関する重要なギャップを強調した。
論文 参考訳(メタデータ) (2025-02-04T07:52:20Z) - A Challenge Dataset and Effective Models for Conversational Stance Detection [26.208989232347058]
マルチターン会話姿勢検出データセット(textbfMT-CSD)を導入する。
本稿では,会話データに固有の長距離および短距離の依存関係に対処するグローバルローカルアテンションネットワーク(textbfGLAN)を提案する。
私たちのデータセットは、ドメイン間スタンス検出の進歩を触媒する貴重なリソースとして役立ちます。
論文 参考訳(メタデータ) (2024-03-17T08:51:01Z) - Integrating Self-supervised Speech Model with Pseudo Word-level Targets
from Visually-grounded Speech Model [57.78191634042409]
擬似単語レベルのターゲットを学習プロセスに統合するフレームワークであるPseudo-Word HuBERT(PW-HuBERT)を提案する。
4つの音声言語理解(SLU)ベンチマークによる実験結果から,意味情報の収集におけるモデルの有用性が示唆された。
論文 参考訳(メタデータ) (2024-02-08T16:55:21Z) - SpokenWOZ: A Large-Scale Speech-Text Benchmark for Spoken Task-Oriented Dialogue Agents [70.08842857515141]
SpokenWOZは音声TODのための大規模音声テキストデータセットである。
SpokenWOZでは、クロスターンスロットと推論スロット検出が新たな課題である。
論文 参考訳(メタデータ) (2023-05-22T13:47:51Z) - Improved Target-specific Stance Detection on Social Media Platforms by
Delving into Conversation Threads [12.007570049217398]
本稿では,会話姿勢検出という新しい課題を提案する。
データインスタンスとその対応する会話スレッドが与えられた場合、所定のターゲット(例えば、COVID-19ワクチン接種)に対するスタンスを推論する。
データインスタンスと会話スレッドの両方から所望のスタンスを推測するため,会話スレッドにコンテキスト情報を組み込んだBranch-BERTモデルを提案する。
論文 参考訳(メタデータ) (2022-11-06T08:40:48Z) - Zero-shot stance detection based on cross-domain feature enhancement by
contrastive learning [9.719309795292773]
我々は、見えないターゲットに効率的に適応できる姿勢検出手法を提案する。
まず、文章の話題語をマスキングすることで、データを増強する。
次に、拡張データを教師なしのコントラスト学習モジュールに供給し、転送可能な特徴をキャプチャする。
論文 参考訳(メタデータ) (2022-10-07T07:45:40Z) - One-Shot Object Affordance Detection in the Wild [76.46484684007706]
Affordance Detectionは、画像内のオブジェクトの潜在的なアクション可能性を特定することを指す。
我々は、人間の行動目的を推定し、それを転送して、すべての候補画像から共通価格を検出するワンショットアフォーダンス検出ネットワーク(OSAD-Net)を考案する。
複雑なシーンと豊富なアノテーションによって、当社のPADv2データセットは、アベイランス検出メソッドをベンチマークするためのテストベッドとして使用することができます。
論文 参考訳(メタデータ) (2021-08-08T14:53:10Z) - Learning Target Candidate Association to Keep Track of What Not to Track [100.80610986625693]
目標を追尾し続けるために、逸脱物を追跡することを提案します。
視覚的トラッキングにおいて, トラクタオブジェクト間の接地トルース対応を欠く問題に対処するために, 部分アノテーションと自己監督を組み合わせたトレーニング戦略を提案する。
我々のトラッカーは6つのベンチマークで新しい最先端のベンチマークを設定し、AUCスコアはLaSOTで67.2%、OxUvA長期データセットで+6.1%向上した。
論文 参考訳(メタデータ) (2021-03-30T17:58:02Z) - Stance Detection Benchmark: How Robust Is Your Stance Detection? [65.91772010586605]
Stance Detection (StD) は、あるトピックやクレームに対する著者の姿勢を検出することを目的としている。
マルチデータセット学習環境において、さまざまなドメインの10のStDデータセットから学習するStDベンチマークを導入する。
このベンチマーク設定では、5つのデータセットに新しい最先端結果を表示することができます。
論文 参考訳(メタデータ) (2020-01-06T13:37:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。