論文の概要: Adversarial Learning for Zero-Shot Stance Detection on Social Media
- arxiv url: http://arxiv.org/abs/2105.06603v1
- Date: Fri, 14 May 2021 01:08:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-17 23:14:45.821211
- Title: Adversarial Learning for Zero-Shot Stance Detection on Social Media
- Title(参考訳): ソーシャルメディアにおけるゼロショットスタンス検出のための逆学習
- Authors: Emily Allaway, Malavika Srikanth, and Kathleen McKeown
- Abstract要約: 本稿では,Twitter上でのゼロショット姿勢検出のための新しいモデルを提案する。
本モデルは, 計算コストを最小に抑えながら, 多数の未確認テストトピックにおいて最先端の性能を実現する。
- 参考スコア(独自算出の注目度): 1.7702142798241087
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Stance detection on social media can help to identify and understand slanted
news or commentary in everyday life. In this work, we propose a new model for
zero-shot stance detection on Twitter that uses adversarial learning to
generalize across topics. Our model achieves state-of-the-art performance on a
number of unseen test topics with minimal computational costs. In addition, we
extend zero-shot stance detection to new topics, highlighting future directions
for zero-shot transfer.
- Abstract(参考訳): ソーシャルメディア上のスタンス検出は、日常のスラムニュースやコメントを識別し理解するのに役立ちます。
本研究では,twitter上でのゼロショット姿勢検出のための新しいモデルを提案する。
本モデルは, 計算コストを最小に抑えながら, 多数の未確認テストトピックにおいて最先端の性能を実現する。
さらに,ゼロショット姿勢検出を新たなトピックにも拡張し,ゼロショット移動の今後の方向性を強調する。
関連論文リスト
- A Survey of Stance Detection on Social Media: New Directions and Perspectives [50.27382951812502]
姿勢検出は 感情コンピューティングにおける 重要なサブフィールドとして現れました
近年は、効果的な姿勢検出手法の開発に対する研究の関心が高まっている。
本稿では,ソーシャルメディア上での姿勢検出手法に関する包括的調査を行う。
論文 参考訳(メタデータ) (2024-09-24T03:06:25Z) - A Comprehensive Review of Few-shot Action Recognition [64.47305887411275]
アクション認識は、複雑で可変なビデオデータを手動でラベル付けすることのコストと非現実性に対処することを目的としている。
ビデオ中の人間のアクションを正確に分類するには、クラスごとにいくつかのラベル付き例だけを使用する必要がある。
論文 参考訳(メタデータ) (2024-07-20T03:53:32Z) - Stance Reasoner: Zero-Shot Stance Detection on Social Media with Explicit Reasoning [10.822701164802307]
ソーシャルメディアにおけるゼロショットスタンス検出のアプローチであるスタンス・レーソナーを提示する。
我々は、事前学習された言語モデルを世界知識の源泉として、中間推論ステップを生成するために、チェーン・オブ・コンテクスト・ラーニング・アプローチを用いています。
Stance Reasonerは、現在の最先端モデルを3つのTwitterデータセットで上回っている。
論文 参考訳(メタデータ) (2024-03-22T00:58:28Z) - Revisiting Self-supervised Learning of Speech Representation from a
Mutual Information Perspective [68.20531518525273]
我々は、情報理論の観点から、既存の自己教師型音声の手法を詳しく検討する。
我々は線形プローブを用いて、対象情報と学習された表現の間の相互情報を推定する。
我々は、ラベルを使わずに、データの異なる部分間の相互情報を見積もる自己教師型の表現を評価する可能性を探る。
論文 参考訳(メタデータ) (2024-01-16T21:13:22Z) - Improved Target-specific Stance Detection on Social Media Platforms by
Delving into Conversation Threads [12.007570049217398]
本稿では,会話姿勢検出という新しい課題を提案する。
データインスタンスとその対応する会話スレッドが与えられた場合、所定のターゲット(例えば、COVID-19ワクチン接種)に対するスタンスを推論する。
データインスタンスと会話スレッドの両方から所望のスタンスを推測するため,会話スレッドにコンテキスト情報を組み込んだBranch-BERTモデルを提案する。
論文 参考訳(メタデータ) (2022-11-06T08:40:48Z) - Exploiting Sentiment and Common Sense for Zero-shot Stance Detection [20.620244248582086]
本稿では,感情と常識知識を用いて姿勢検出モデルの伝達可能性を高めることを提案する。
我々のモデルには、常識知識を得るグラフオートエンコーダモジュールと、感情と常識を持つ姿勢検出モジュールが含まれる。
論文 参考訳(メタデータ) (2022-08-18T12:27:24Z) - Incremental-DETR: Incremental Few-Shot Object Detection via
Self-Supervised Learning [60.64535309016623]
本稿では,DeTRオブジェクト検出器上での微調整および自己教師型学習によるインクリメンタル・デクリメンタル・デクリメンタル・デクリメンタル・オブジェクト検出を提案する。
まず,DeTRのクラス固有のコンポーネントを自己監督で微調整する。
さらに,DeTRのクラス固有のコンポーネントに知識蒸留を施した数発の微調整戦略を導入し,破滅的な忘れを伴わずに新しいクラスを検出するネットワークを奨励する。
論文 参考訳(メタデータ) (2022-05-09T05:08:08Z) - Robust Region Feature Synthesizer for Zero-Shot Object Detection [87.79902339984142]
我々は,クラス内セマンティック・ディバージングコンポーネントとクラス間構造保存コンポーネントを含む,新しいゼロショットオブジェクト検出フレームワークを構築した。
リモートセンシング画像においてゼロショット物体検出を行う最初の研究である。
論文 参考訳(メタデータ) (2022-01-01T03:09:15Z) - Zero-Shot Stance Detection: A Dataset and Model using Generalized Topic
Representations [13.153001795077227]
従来のデータセットよりも広い範囲のトピックや語彙の変化をキャプチャするゼロショットスタンス検出のための新しいデータセットを提案する。
また、一般化されたトピック表現を用いてトピック間の関係を暗黙的にキャプチャするスタンス検出の新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-10-07T20:27:12Z) - Any-Shot Object Detection [81.88153407655334]
「アニーショット検出」とは、全く見えず、数発のカテゴリが推論中に同時に共起できる場所である。
我々は、ゼロショットと少数ショットの両方のオブジェクトクラスを同時に検出できる、統合された任意のショット検出モデルを提案する。
我々のフレームワークは、ゼロショット検出とFewショット検出タスクにのみ使用できる。
論文 参考訳(メタデータ) (2020-03-16T03:43:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。