論文の概要: Interpretable Rumor Detection in Microblogs by Attending to User
Interactions
- arxiv url: http://arxiv.org/abs/2001.10667v1
- Date: Wed, 29 Jan 2020 02:37:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-05 21:29:56.135067
- Title: Interpretable Rumor Detection in Microblogs by Attending to User
Interactions
- Title(参考訳): マイクロブログにおけるユーザインタラクションによる解釈可能なうわさ検出
- Authors: Ling Min Serena Khoo, Hai Leong Chieu, Zhong Qian and Jing Jiang
- Abstract要約: マイクロブログにおける事実と偽のクレームに対するコミュニティの反応を区別する学習によるうわさ検出に対処する。
ツイート間の長距離インタラクションをモデル化するポストレベルアテンションモデル(PLAN)を提案する。
両データセットの最先端モデルより最高のモデルの方が優れていることを示す。
- 参考スコア(独自算出の注目度): 11.881745037884953
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We address rumor detection by learning to differentiate between the
community's response to real and fake claims in microblogs. Existing
state-of-the-art models are based on tree models that model conversational
trees. However, in social media, a user posting a reply might be replying to
the entire thread rather than to a specific user. We propose a post-level
attention model (PLAN) to model long distance interactions between tweets with
the multi-head attention mechanism in a transformer network. We investigated
variants of this model: (1) a structure aware self-attention model (StA-PLAN)
that incorporates tree structure information in the transformer network, and
(2) a hierarchical token and post-level attention model (StA-HiTPLAN) that
learns a sentence representation with token-level self-attention. To the best
of our knowledge, we are the first to evaluate our models on two rumor
detection data sets: the PHEME data set as well as the Twitter15 and Twitter16
data sets. We show that our best models outperform current state-of-the-art
models for both data sets. Moreover, the attention mechanism allows us to
explain rumor detection predictions at both token-level and post-level.
- Abstract(参考訳): マイクロブログにおける事実と偽のクレームに対するコミュニティの反応を区別する学習によるうわさ検出に対処する。
既存の最先端モデルは会話木をモデル化する木モデルに基づいている。
しかしソーシャルメディアでは、返信を投稿するユーザは特定のユーザーではなく、スレッド全体に返信するかもしれない。
トランスフォーマネットワークにおいて,多頭部注意機構を用いてツイート間の長距離インタラクションをモデル化するポストレベル注意モデル(plan)を提案する。
本研究では,(1)木構造情報をトランスフォーマーネットワークに組み込んだ構造認識型自己注意モデル(StA-PLAN),(2)トークンレベルの自己意識を持つ文表現を学習する階層型トークン・ポストレベル注意モデル(StA-HiTPLAN)について検討した。
私たちの知る限りでは、PHEMEデータセットとTwitter15とTwitter16データセットという、2つの噂検出データセットでモデルを最初に評価しました。
両データセットの最先端モデルより最高のモデルの方が優れていることを示す。
さらに,注意機構により,トークンレベルとポストレベルの両方において,うわさ検出予測を説明することができる。
関連論文リスト
- STMT: A Spatial-Temporal Mesh Transformer for MoCap-Based Action
Recognition [66.96931254510544]
本研究では、モーションキャプチャー(MoCap)シーケンスを用いた人間の行動認識の問題点について検討する。
メッシュシーケンスを直接モデル化する新しい時空間メッシュ変換器(STMT)を提案する。
提案手法は,スケルトンベースモデルやポイントクラウドベースモデルと比較して,最先端の性能を実現する。
論文 参考訳(メタデータ) (2023-03-31T16:19:27Z) - Model Extraction Attack against Self-supervised Speech Models [52.81330435990717]
自己教師付き学習(SSL)音声モデルは、与えられたクリップの有意義な表現を生成する。
モデル抽出攻撃 (MEA) は、しばしば、クエリアクセスのみで被害者モデルの機能を盗む敵を指す。
本稿では,少数のクエリを用いたSSL音声モデルに対するMEA問題について検討する。
論文 参考訳(メタデータ) (2022-11-29T09:28:05Z) - Large Language Models with Controllable Working Memory [64.71038763708161]
大規模言語モデル(LLM)は、自然言語処理(NLP)の一連のブレークスルーをもたらした。
これらのモデルをさらに切り離すのは、事前訓練中に内在する膨大な量の世界的知識だ。
モデルの世界知識が、文脈で提示された事実情報とどのように相互作用するかは、まだ解明されていない。
論文 参考訳(メタデータ) (2022-11-09T18:58:29Z) - Analyzing Robustness of End-to-End Neural Models for Automatic Speech
Recognition [11.489161072526677]
音声認識のための事前学習ニューラルネットワークのロバスト性について検討する。
本研究では,LibriSpeechおよびTIMITデータセット上で,事前学習したニューラルネットワークwav2vec2, HuBERT, DistilHuBERTのロバスト性解析を行う。
論文 参考訳(メタデータ) (2022-08-17T20:00:54Z) - On the Role of Bidirectionality in Language Model Pre-Training [85.14614350372004]
本研究では,次のトークン予測,テキスト入力,ゼロショットプライミング,微調整における双方向性の役割について検討する。
最大6.7Bのパラメータを持つモデルをトレーニングし、スケールで一貫性のある相違点を見つけます。
論文 参考訳(メタデータ) (2022-05-24T02:25:05Z) - Improving Information Cascade Modeling by Social Topology and Dual Role
User Dependency [3.3497820777154614]
我々は、TAN-DRUD (Topology-aware Attention Networks with Dual Role User Dependency) という名前の非シーケンス情報カスケードモデルを提案する。
TAN-DRUDは、情報送信者と受信者の二重ロールユーザ依存性をキャプチャすることで、情報カスケードモデリングにおける良好な性能を得る。
3つのカスケードデータセットに対する実験により、我々のモデルは最先端のカスケードモデルよりも優れているだけでなく、トポロジー情報を利用して拡散木を推定できることを示した。
論文 参考訳(メタデータ) (2022-04-07T14:26:33Z) - Disfluency Detection with Unlabeled Data and Small BERT Models [3.04133054437883]
本稿では,BERTアーキテクチャに基づく小型・高速・オンデバイスモデルに焦点をあてて,ディフルエンシ検出タスクに着目する。
性能を保ちながら1.3 MiB程度の拡散検出モデルを訓練できることを実証する。
論文 参考訳(メタデータ) (2021-04-21T21:24:32Z) - Online Multiple Object Tracking with Cross-Task Synergy [120.70085565030628]
位置予測と埋め込み結合の相乗効果を考慮した新しい統一モデルを提案する。
この2つのタスクは、時間認識対象の注意と注意の注意、およびアイデンティティ認識メモリ集約モデルによってリンクされる。
論文 参考訳(メタデータ) (2021-04-01T10:19:40Z) - Probing Model Signal-Awareness via Prediction-Preserving Input
Minimization [67.62847721118142]
モデルが正しい脆弱性信号を捕捉して予測する能力を評価する。
SAR(Signal-Aware Recall)と呼ばれる新しい指標を用いて,モデルの信号認識を計測する。
その結果,90年代以降のリコールから60年代以降のリコールは,新たな指標で大幅に減少した。
論文 参考訳(メタデータ) (2020-11-25T20:05:23Z) - Rumor Detection on Twitter Using Multiloss Hierarchical BiLSTM with an
Attenuation Factor [14.717465036484292]
Twitterなどのソーシャルメディアプラットフォームは、未確認情報や噂の発端となっている。
我々のモデルは、最先端の機械学習やバニラディープラーニングモデルよりも優れたパフォーマンスを実現する。
論文 参考訳(メタデータ) (2020-10-31T12:29:25Z) - On the Importance of Local Information in Transformer Based Models [19.036044858449593]
自己保持モジュールはTransformerベースのモデルのキーコンポーネントである。
最近の研究では、これらの頭は統語的、意味的、または局所的な行動を示すことが示されている。
その結果, 頭部の局所性バイアスは, 統語的バイアスに比べて大きいことが判明した。
論文 参考訳(メタデータ) (2020-08-13T11:32:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。