論文の概要: TATA: Stance Detection via Topic-Agnostic and Topic-Aware Embeddings
- arxiv url: http://arxiv.org/abs/2310.14450v2
- Date: Mon, 13 Nov 2023 03:22:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-14 20:02:44.026850
- Title: TATA: Stance Detection via Topic-Agnostic and Topic-Aware Embeddings
- Title(参考訳): TATA: Topic-Agnostic および Topic-Aware 埋め込みによるスタンス検出
- Authors: Hans W. A. Hanley, Zakir Durumeric
- Abstract要約: 我々は、下流姿勢検出に使用するトピック認識/TAGとトピック認識/TAW埋め込みを訓練する。
いくつかの公開姿勢検出データセットで最先端のパフォーマンスを実現する。
- 参考スコア(独自算出の注目度): 6.0971418973431
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Stance detection is important for understanding different attitudes and
beliefs on the Internet. However, given that a passage's stance toward a given
topic is often highly dependent on that topic, building a stance detection
model that generalizes to unseen topics is difficult. In this work, we propose
using contrastive learning as well as an unlabeled dataset of news articles
that cover a variety of different topics to train topic-agnostic/TAG and
topic-aware/TAW embeddings for use in downstream stance detection. Combining
these embeddings in our full TATA model, we achieve state-of-the-art
performance across several public stance detection datasets (0.771 $F_1$-score
on the Zero-shot VAST dataset). We release our code and data at
https://github.com/hanshanley/tata.
- Abstract(参考訳): スタンス検出はインターネット上で異なる態度や信念を理解する上で重要である。
しかし、ある話題に対する節のスタンスがその話題に大きく依存していることを考えると、目に見えないトピックを一般化するスタンス検出モデルの構築は困難である。
本研究は,トピック認識/TAGとトピック認識/TAW埋め込みを下流姿勢検出に用いるために,コントラスト学習と,さまざまなトピックをカバーする未ラベルのニュース記事データセットを使用することを提案する。
これらの埋め込みをフルTATAモデルに組み合わせることで、いくつかのパブリックスタンス検出データセット(Zero-shot VASTデータセットの0.771$F_1$-score)で最先端のパフォーマンスを実現しています。
コードとデータはhttps://github.com/hanshanley/tataでリリースします。
関連論文リスト
- A Challenge Dataset and Effective Models for Conversational Stance Detection [26.208989232347058]
マルチターン会話姿勢検出データセット(textbfMT-CSD)を導入する。
本稿では,会話データに固有の長距離および短距離の依存関係に対処するグローバルローカルアテンションネットワーク(textbfGLAN)を提案する。
私たちのデータセットは、ドメイン間スタンス検出の進歩を触媒する貴重なリソースとして役立ちます。
論文 参考訳(メタデータ) (2024-03-17T08:51:01Z) - Assaying on the Robustness of Zero-Shot Machine-Generated Text Detectors [57.7003399760813]
先進的なLarge Language Models (LLMs) とその特殊な変種を探索し、いくつかの方法でこの分野に寄与する。
トピックと検出性能の間に有意な相関関係が発見された。
これらの調査は、様々なトピックにまたがるこれらの検出手法の適応性と堅牢性に光を当てた。
論文 参考訳(メタデータ) (2023-12-20T10:53:53Z) - Unified Visual Relationship Detection with Vision and Language Models [89.77838890788638]
この研究は、複数のデータセットからラベル空間の結合を予測する単一の視覚的関係検出器のトレーニングに焦点を当てている。
視覚と言語モデルを活用した統合視覚関係検出のための新しいボトムアップ手法UniVRDを提案する。
人物体間相互作用検出とシーングラフ生成の双方による実験結果から,本モデルの競合性能が示された。
論文 参考訳(メタデータ) (2023-03-16T00:06:28Z) - Improved Target-specific Stance Detection on Social Media Platforms by
Delving into Conversation Threads [12.007570049217398]
本稿では,会話姿勢検出という新しい課題を提案する。
データインスタンスとその対応する会話スレッドが与えられた場合、所定のターゲット(例えば、COVID-19ワクチン接種)に対するスタンスを推論する。
データインスタンスと会話スレッドの両方から所望のスタンスを推測するため,会話スレッドにコンテキスト情報を組み込んだBranch-BERTモデルを提案する。
論文 参考訳(メタデータ) (2022-11-06T08:40:48Z) - Detection Hub: Unifying Object Detection Datasets via Query Adaptation
on Language Embedding [137.3719377780593]
新しいデザイン(De Detection Hubという名前)は、データセット認識とカテゴリ整列である。
データセットの不整合を緩和し、検出器が複数のデータセットをまたいで学習するための一貫性のあるガイダンスを提供する。
データセット間のカテゴリは、ワンホットなカテゴリ表現を単語埋め込みに置き換えることで、意味的に統一された空間に整列される。
論文 参考訳(メタデータ) (2022-06-07T17:59:44Z) - Is Stance Detection Topic-Independent and Cross-topic Generalizable? --
A Reproduction Study [6.047731445033151]
横断的姿勢検出は、目に見えないトピックに対する姿勢(プロ、アンチ、中立)を自動的に検出するタスクである。
我々は、最先端の横断的姿勢検出作業を再現し、その結果を分析した。
我々は質問する: スタンス検出はトピックに依存しず、トピック間で一般化可能であるか?
異なるトピックにおけるパフォーマンスの調査や、トピック固有の語彙や文脈に対処することは、トピック間のスタンス検出のための将来の道である、と結論付けている。
論文 参考訳(メタデータ) (2021-10-14T20:03:36Z) - Weakly-Supervised Aspect-Based Sentiment Analysis via Joint
Aspect-Sentiment Topic Embedding [71.2260967797055]
アスペクトベース感情分析のための弱教師付きアプローチを提案する。
We learn sentiment, aspects> joint topic embeddeds in the word embedding space。
次に、ニューラルネットワークを用いて単語レベルの識別情報を一般化する。
論文 参考訳(メタデータ) (2020-10-13T21:33:24Z) - Zero-Shot Stance Detection: A Dataset and Model using Generalized Topic
Representations [13.153001795077227]
従来のデータセットよりも広い範囲のトピックや語彙の変化をキャプチャするゼロショットスタンス検出のための新しいデータセットを提案する。
また、一般化されたトピック表現を用いてトピック間の関係を暗黙的にキャプチャするスタンス検出の新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-10-07T20:27:12Z) - ConsNet: Learning Consistency Graph for Zero-Shot Human-Object
Interaction Detection [101.56529337489417]
画像中のHuman, Action, Object>の形のHOIインスタンスを検出・認識することを目的としたHuman-Object Interaction (HOI) Detectionの問題点を考察する。
我々は、オブジェクト、アクション、インタラクション間の多レベルコンパレンシーは、稀な、あるいは以前には見られなかったHOIのセマンティック表現を生成するための強力な手がかりであると主張している。
提案モデルでは,人-対象のペアの視覚的特徴とHOIラベルの単語埋め込みを入力とし,それらを視覚-意味的関節埋め込み空間にマッピングし,類似度を計測して検出結果を得る。
論文 参考訳(メタデータ) (2020-08-14T09:11:18Z) - Stance Detection Benchmark: How Robust Is Your Stance Detection? [65.91772010586605]
Stance Detection (StD) は、あるトピックやクレームに対する著者の姿勢を検出することを目的としている。
マルチデータセット学習環境において、さまざまなドメインの10のStDデータセットから学習するStDベンチマークを導入する。
このベンチマーク設定では、5つのデータセットに新しい最先端結果を表示することができます。
論文 参考訳(メタデータ) (2020-01-06T13:37:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。