論文の概要: Interpretable Rumor Detection in Microblogs by Attending to User
Interactions
- arxiv url: http://arxiv.org/abs/2001.10667v1
- Date: Wed, 29 Jan 2020 02:37:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-05 21:29:56.135067
- Title: Interpretable Rumor Detection in Microblogs by Attending to User
Interactions
- Title(参考訳): マイクロブログにおけるユーザインタラクションによる解釈可能なうわさ検出
- Authors: Ling Min Serena Khoo, Hai Leong Chieu, Zhong Qian and Jing Jiang
- Abstract要約: マイクロブログにおける事実と偽のクレームに対するコミュニティの反応を区別する学習によるうわさ検出に対処する。
ツイート間の長距離インタラクションをモデル化するポストレベルアテンションモデル(PLAN)を提案する。
両データセットの最先端モデルより最高のモデルの方が優れていることを示す。
- 参考スコア(独自算出の注目度): 11.881745037884953
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We address rumor detection by learning to differentiate between the
community's response to real and fake claims in microblogs. Existing
state-of-the-art models are based on tree models that model conversational
trees. However, in social media, a user posting a reply might be replying to
the entire thread rather than to a specific user. We propose a post-level
attention model (PLAN) to model long distance interactions between tweets with
the multi-head attention mechanism in a transformer network. We investigated
variants of this model: (1) a structure aware self-attention model (StA-PLAN)
that incorporates tree structure information in the transformer network, and
(2) a hierarchical token and post-level attention model (StA-HiTPLAN) that
learns a sentence representation with token-level self-attention. To the best
of our knowledge, we are the first to evaluate our models on two rumor
detection data sets: the PHEME data set as well as the Twitter15 and Twitter16
data sets. We show that our best models outperform current state-of-the-art
models for both data sets. Moreover, the attention mechanism allows us to
explain rumor detection predictions at both token-level and post-level.
- Abstract(参考訳): マイクロブログにおける事実と偽のクレームに対するコミュニティの反応を区別する学習によるうわさ検出に対処する。
既存の最先端モデルは会話木をモデル化する木モデルに基づいている。
しかしソーシャルメディアでは、返信を投稿するユーザは特定のユーザーではなく、スレッド全体に返信するかもしれない。
トランスフォーマネットワークにおいて,多頭部注意機構を用いてツイート間の長距離インタラクションをモデル化するポストレベル注意モデル(plan)を提案する。
本研究では,(1)木構造情報をトランスフォーマーネットワークに組み込んだ構造認識型自己注意モデル(StA-PLAN),(2)トークンレベルの自己意識を持つ文表現を学習する階層型トークン・ポストレベル注意モデル(StA-HiTPLAN)について検討した。
私たちの知る限りでは、PHEMEデータセットとTwitter15とTwitter16データセットという、2つの噂検出データセットでモデルを最初に評価しました。
両データセットの最先端モデルより最高のモデルの方が優れていることを示す。
さらに,注意機構により,トークンレベルとポストレベルの両方において,うわさ検出予測を説明することができる。
関連論文リスト
- FuXi-$α$: Scaling Recommendation Model with Feature Interaction Enhanced Transformer [81.12174905444229]
近年の進歩は、大規模レコメンデーションモデルに逐次レコメンデーションモデルを拡張することが効果的な戦略であることを示している。
これらの問題に対処するために、FuXi-$alpha$と呼ばれる新しいモデルを提案する。
我々のモデルは既存のモデルよりも優れており、モデルのサイズが大きくなるにつれてその性能は継続的に向上する。
論文 参考訳(メタデータ) (2025-02-05T09:46:54Z) - Human-Object Interaction Detection Collaborated with Large Relation-driven Diffusion Models [65.82564074712836]
テキストと画像の拡散モデルに光を流す新しいHOI検出器であるDIFfusionHOIを紹介する。
まず、埋め込み空間における人間と物体の関係パターンの表現をインバージョンベースで学習する戦略を考案する。
これらの学習された関係埋め込みはテキストのプロンプトとして機能し、スタイア拡散モデルが特定の相互作用を記述する画像を生成する。
論文 参考訳(メタデータ) (2024-10-26T12:00:33Z) - NarrationDep: Narratives on Social Media For Automatic Depression Detection [24.11420537250414]
我々は、抑うつに関連する物語を検出することに焦点を当てた、textttNarrationDepと呼ばれる新しいモデルを開発した。
textttNarrationDepは、個々のツイート表現とユーザのツイートのクラスタを共同でモデル化するディープラーニングフレームワークである。
論文 参考訳(メタデータ) (2024-07-24T11:24:25Z) - Evaluating Model Bias Requires Characterizing its Mistakes [19.777130236160712]
スキューサイズ(SkewSize)は、モデルの予測における誤りからバイアスを捉える、原則付きフレキシブルなメトリクスである。
マルチクラスの設定で使用したり、生成モデルのオープンな語彙設定に一般化することができる。
合成データで訓練された標準的な視覚モデル、ImageNetで訓練された視覚モデル、BLIP-2ファミリーの大規模視覚言語モデルなどである。
論文 参考訳(メタデータ) (2024-07-15T11:46:21Z) - STMT: A Spatial-Temporal Mesh Transformer for MoCap-Based Action Recognition [50.064502884594376]
本研究では、モーションキャプチャー(MoCap)シーケンスを用いた人間の行動認識の問題点について検討する。
メッシュシーケンスを直接モデル化する新しい時空間メッシュ変換器(STMT)を提案する。
提案手法は,スケルトンベースモデルやポイントクラウドベースモデルと比較して,最先端の性能を実現する。
論文 参考訳(メタデータ) (2023-03-31T16:19:27Z) - Large Language Models with Controllable Working Memory [64.71038763708161]
大規模言語モデル(LLM)は、自然言語処理(NLP)の一連のブレークスルーをもたらした。
これらのモデルをさらに切り離すのは、事前訓練中に内在する膨大な量の世界的知識だ。
モデルの世界知識が、文脈で提示された事実情報とどのように相互作用するかは、まだ解明されていない。
論文 参考訳(メタデータ) (2022-11-09T18:58:29Z) - Analyzing Robustness of End-to-End Neural Models for Automatic Speech
Recognition [11.489161072526677]
音声認識のための事前学習ニューラルネットワークのロバスト性について検討する。
本研究では,LibriSpeechおよびTIMITデータセット上で,事前学習したニューラルネットワークwav2vec2, HuBERT, DistilHuBERTのロバスト性解析を行う。
論文 参考訳(メタデータ) (2022-08-17T20:00:54Z) - On the Role of Bidirectionality in Language Model Pre-Training [85.14614350372004]
本研究では,次のトークン予測,テキスト入力,ゼロショットプライミング,微調整における双方向性の役割について検討する。
最大6.7Bのパラメータを持つモデルをトレーニングし、スケールで一貫性のある相違点を見つけます。
論文 参考訳(メタデータ) (2022-05-24T02:25:05Z) - Online Multiple Object Tracking with Cross-Task Synergy [120.70085565030628]
位置予測と埋め込み結合の相乗効果を考慮した新しい統一モデルを提案する。
この2つのタスクは、時間認識対象の注意と注意の注意、およびアイデンティティ認識メモリ集約モデルによってリンクされる。
論文 参考訳(メタデータ) (2021-04-01T10:19:40Z) - Rumor Detection on Twitter Using Multiloss Hierarchical BiLSTM with an
Attenuation Factor [14.717465036484292]
Twitterなどのソーシャルメディアプラットフォームは、未確認情報や噂の発端となっている。
我々のモデルは、最先端の機械学習やバニラディープラーニングモデルよりも優れたパフォーマンスを実現する。
論文 参考訳(メタデータ) (2020-10-31T12:29:25Z) - On the Importance of Local Information in Transformer Based Models [19.036044858449593]
自己保持モジュールはTransformerベースのモデルのキーコンポーネントである。
最近の研究では、これらの頭は統語的、意味的、または局所的な行動を示すことが示されている。
その結果, 頭部の局所性バイアスは, 統語的バイアスに比べて大きいことが判明した。
論文 参考訳(メタデータ) (2020-08-13T11:32:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。