論文の概要: Infusing Knowledge from Wikipedia to Enhance Stance Detection
- arxiv url: http://arxiv.org/abs/2204.03839v1
- Date: Fri, 8 Apr 2022 04:49:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-11 19:02:56.897856
- Title: Infusing Knowledge from Wikipedia to Enhance Stance Detection
- Title(参考訳): Wikipediaからの知識の注入によるスタンス検出
- Authors: Zihao He, Negar Mokhberian, Kristina Lerman
- Abstract要約: 本稿では,知識をスタンスエンコーディングに注入するウィキペディアスタンス検出BERT(WS-BERT)を紹介する。
本モデルでは, 目標特定姿勢検出, 目標間姿勢検出, ゼロ/ファウショット姿勢検出において, 最先端手法を著しく上回っている。
- 参考スコア(独自算出の注目度): 4.388536289711207
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Stance detection infers a text author's attitude towards a target. This is
challenging when the model lacks background knowledge about the target. Here,
we show how background knowledge from Wikipedia can help enhance the
performance on stance detection. We introduce Wikipedia Stance Detection BERT
(WS-BERT) that infuses the knowledge into stance encoding. Extensive results on
three benchmark datasets covering social media discussions and online debates
indicate that our model significantly outperforms the state-of-the-art methods
on target-specific stance detection, cross-target stance detection, and
zero/few-shot stance detection.
- Abstract(参考訳): 姿勢検出は、テキスト作者のターゲットに対する態度を推測する。
モデルにターゲットに関するバックグラウンド知識がない場合、これは難しい。
ここでは,Wikipediaの背景知識が姿勢検出の性能向上に役立つことを示す。
本稿では,知識をスタンスエンコーディングに注入するウィキペディアスタンス検出BERT(WS-BERT)を紹介する。
ソーシャルメディアの議論やオンラインの議論を網羅した3つのベンチマークデータセットの広範な結果から、我々のモデルはターゲット固有のスタンス検出、ターゲット間のスタンス検出、ゼロ/ファウショットスタンス検出において、最先端の手法を著しく上回っていることが示唆された。
関連論文リスト
- Stanceformer: Target-Aware Transformer for Stance Detection [59.69858080492586]
スタンス検出は、テキストで表現されたスタンスを特定の主題やターゲットに向けて識別する。
以前の作業は、ターゲットを効果的に優先順位付けする能力に欠ける既存のトランスフォーマーモデルに依存していた。
本稿では,学習と推論の両方において,目標に対する注意を高めるターゲット対応トランスフォーマーモデルであるStanceformerを紹介する。
論文 参考訳(メタデータ) (2024-10-09T17:24:28Z) - Collaborative Knowledge Infusion for Low-resource Stance Detection [83.88515573352795]
姿勢検出モデルを支援するために、ターゲット関連の知識がしばしば必要である。
低リソース姿勢検出タスクに対する協調的知識注入手法を提案する。
論文 参考訳(メタデータ) (2024-03-28T08:32:14Z) - Stance Reasoner: Zero-Shot Stance Detection on Social Media with Explicit Reasoning [10.822701164802307]
ソーシャルメディアにおけるゼロショットスタンス検出のアプローチであるスタンス・レーソナーを提示する。
我々は、事前学習された言語モデルを世界知識の源泉として、中間推論ステップを生成するために、チェーン・オブ・コンテクスト・ラーニング・アプローチを用いています。
Stance Reasonerは、現在の最先端モデルを3つのTwitterデータセットで上回っている。
論文 参考訳(メタデータ) (2024-03-22T00:58:28Z) - SeSame: Simple, Easy 3D Object Detection with Point-Wise Semantics [0.7373617024876725]
自律運転では、3Dオブジェクト検出は、経路計画や動き推定を含む下流タスクに対してより正確な情報を提供する。
本稿では,既存のLiDARのみに基づく3Dオブジェクト検出における意味情報の強化を目的としたSeSameを提案する。
KITTIオブジェクト検出ベンチマークにおいて,提案手法の有効性を示す実験を行った。
論文 参考訳(メタデータ) (2024-03-11T08:17:56Z) - Improved Target-specific Stance Detection on Social Media Platforms by
Delving into Conversation Threads [12.007570049217398]
本稿では,会話姿勢検出という新しい課題を提案する。
データインスタンスとその対応する会話スレッドが与えられた場合、所定のターゲット(例えば、COVID-19ワクチン接種)に対するスタンスを推論する。
データインスタンスと会話スレッドの両方から所望のスタンスを推測するため,会話スレッドにコンテキスト情報を組み込んだBranch-BERTモデルを提案する。
論文 参考訳(メタデータ) (2022-11-06T08:40:48Z) - Contextual information integration for stance detection via
cross-attention [59.662413798388485]
スタンス検出は、著者の目標に対する姿勢を特定することを扱う。
既存のスタンス検出モデルの多くは、関連するコンテキスト情報を考慮していないため、制限されている。
文脈情報をテキストとして統合する手法を提案する。
論文 参考訳(メタデータ) (2022-11-03T15:04:29Z) - Zero-shot stance detection based on cross-domain feature enhancement by
contrastive learning [9.719309795292773]
我々は、見えないターゲットに効率的に適応できる姿勢検出手法を提案する。
まず、文章の話題語をマスキングすることで、データを増強する。
次に、拡張データを教師なしのコントラスト学習モジュールに供給し、転送可能な特徴をキャプチャする。
論文 参考訳(メタデータ) (2022-10-07T07:45:40Z) - AGO-Net: Association-Guided 3D Point Cloud Object Detection Network [86.10213302724085]
ドメイン適応によるオブジェクトの無傷な特徴を関連付ける新しい3D検出フレームワークを提案する。
我々は,KITTIの3D検出ベンチマークにおいて,精度と速度の両面で最新の性能を実現する。
論文 参考訳(メタデータ) (2022-08-24T16:54:38Z) - SASA: Semantics-Augmented Set Abstraction for Point-based 3D Object
Detection [78.90102636266276]
SASA(Semantics-Augmented Set Abstraction)と呼ばれる新しい集合抽象化手法を提案する。
そこで本研究では, 推定点前景スコアに基づいて, より重要な前景点の維持を支援するセマンティックス誘導点サンプリングアルゴリズムを提案する。
実際には、SASAは、前景オブジェクトに関連する貴重な点を識別し、ポイントベースの3D検出のための特徴学習を改善するのに有効である。
論文 参考訳(メタデータ) (2022-01-06T08:54:47Z) - Triggering Failures: Out-Of-Distribution detection by learning from
local adversarial attacks in Semantic Segmentation [76.2621758731288]
セグメンテーションにおけるアウト・オブ・ディストリビューション(OOD)オブジェクトの検出に取り組む。
私たちの主な貢献は、ObsNetと呼ばれる新しいOOD検出アーキテクチャであり、ローカル・アタック(LAA)に基づく専用トレーニングスキームと関連付けられています。
3つの異なるデータセットの文献の最近の10つの手法と比較して,速度と精度の両面で最高の性能が得られることを示す。
論文 参考訳(メタデータ) (2021-08-03T17:09:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。