論文の概要: Rumor Detection on Twitter Using Multiloss Hierarchical BiLSTM with an
Attenuation Factor
- arxiv url: http://arxiv.org/abs/2011.00259v2
- Date: Mon, 14 Dec 2020 11:20:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-01 04:46:37.744519
- Title: Rumor Detection on Twitter Using Multiloss Hierarchical BiLSTM with an
Attenuation Factor
- Title(参考訳): 減衰係数を持つマルチロス階層型BiLSTMによるTwitterの噂検出
- Authors: Yudianto Sujana, Jiawen Li, Hung-Yu Kao
- Abstract要約: Twitterなどのソーシャルメディアプラットフォームは、未確認情報や噂の発端となっている。
我々のモデルは、最先端の機械学習やバニラディープラーニングモデルよりも優れたパフォーマンスを実現する。
- 参考スコア(独自算出の注目度): 14.717465036484292
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Social media platforms such as Twitter have become a breeding ground for
unverified information or rumors. These rumors can threaten people's health,
endanger the economy, and affect the stability of a country. Many researchers
have developed models to classify rumors using traditional machine learning or
vanilla deep learning models. However, previous studies on rumor detection have
achieved low precision and are time consuming. Inspired by the hierarchical
model and multitask learning, a multiloss hierarchical BiLSTM model with an
attenuation factor is proposed in this paper. The model is divided into two
BiLSTM modules: post level and event level. By means of this hierarchical
structure, the model can extract deep in-formation from limited quantities of
text. Each module has a loss function that helps to learn bilateral features
and reduce the training time. An attenuation fac-tor is added at the post level
to increase the accuracy. The results on two rumor datasets demonstrate that
our model achieves better performance than that of state-of-the-art machine
learning and vanilla deep learning models.
- Abstract(参考訳): Twitterなどのソーシャルメディアプラットフォームは、未確認情報や噂の発端となっている。
これらの噂は人々の健康を脅かし、経済を脅かし、国の安定に影響を及ぼす可能性がある。
多くの研究者が、従来の機械学習やバニラディープラーニングモデルを使って噂を分類するモデルを開発した。
しかし、これまでの噂検出の研究は精度が低く、時間がかかる。
本稿では,階層モデルとマルチタスク学習にヒントを得て,減衰係数を持つマルチロス階層型BiLSTMモデルを提案する。
モデルは2つのBiLSTMモジュール、ポストレベルとイベントレベルに分けられる。
この階層構造によって、モデルは限られた量のテキストから深いインフォーメーションを抽出することができる。
各モジュールには、両側の機能を学び、トレーニング時間を短縮するロス関数がある。
減衰ファックタがポストレベルに追加され、精度が向上する。
2つの噂データセットの結果から,我々のモデルは最先端の機械学習モデルやバニラ深層学習モデルよりも優れた性能が得られることが示された。
関連論文リスト
- Inheritune: Training Smaller Yet More Attentive Language Models [61.363259848264725]
Inherituneは、より小型で高性能な言語モデルを開発するための、シンプルで効果的なトレーニングレシピである。
Inheritune は OpenWebText-9B や FineWeb_edu のようなデータセット上で GPT-2 モデルのさまざまなサイズのトレーニングを可能にする。
論文 参考訳(メタデータ) (2024-04-12T17:53:34Z) - Improving Discriminative Multi-Modal Learning with Large-Scale
Pre-Trained Models [51.5543321122664]
本稿では,大規模な事前学習型ユニモーダルモデルを用いて,識別型マルチモーダル学習を向上する方法について検討する。
MMLoRA(Multi-Modal Low-Rank Adaptation Learning)を導入する。
論文 参考訳(メタデータ) (2023-10-08T15:01:54Z) - The Languini Kitchen: Enabling Language Modelling Research at Different
Scales of Compute [66.84421705029624]
本稿では,アクセル時間で測定された等価計算に基づくモデル比較を可能にする実験的プロトコルを提案する。
私たちは、既存の学術的ベンチマークを上回り、品質、多様性、文書の長さで上回る、大規模で多様で高品質な書籍データセットを前処理します。
この研究は、GPT-2アーキテクチャから派生したフィードフォワードモデルと、10倍のスループットを持つ新しいLSTMの形式でのリカレントモデルという2つのベースラインモデルも提供する。
論文 参考訳(メタデータ) (2023-09-20T10:31:17Z) - On the Steganographic Capacity of Selected Learning Models [1.0640226829362012]
本稿では,学習モデルの聴取能力について考察する。
幅広いモデルに対して、上書き可能な低次ビットの数を決定する。
テスト対象モデルのうち, LR実験では7.04KB, InceptionV3では44.74MBであった。
論文 参考訳(メタデータ) (2023-08-29T10:41:34Z) - Steganographic Capacity of Deep Learning Models [12.974139332068491]
いくつかの学習モデルのステガノグラフィー能力について考察する。
我々は,難解なマルウェア分類問題に対して,多層パーセプトロン(MLP),畳み込みニューラルネットワーク(CNN),トランスフォーマーモデルを訓練する。
テストした学習モデルのステガノグラフィー能力は驚くほど高く,いずれの場合も,モデル性能が急速に低下する明確なしきい値が存在することがわかった。
論文 参考訳(メタデータ) (2023-06-25T13:43:35Z) - Two Independent Teachers are Better Role Model [7.001845833295753]
我々は3D-DenseUNetと呼ばれる新しいディープラーニングモデルを提案する。
ダウンサンプリングにおけるグローバルアグリゲーションブロックとして機能し、空間情報損失の問題を解決する。
また,ラベル予測の代わりにモデル重みを要約した「2つの独立教師」という手法を提案する。
論文 参考訳(メタデータ) (2023-06-09T08:22:41Z) - Comparative study of Transformer and LSTM Network with attention
mechanism on Image Captioning [0.0]
本研究ではTransformerとLSTMをMS-COCOデータセットのアテンションブロックモデルと比較する。
注目ブロックモデルを用いたトランスフォーマーとLSTMについて,その精度について検討した。
論文 参考訳(メタデータ) (2023-03-05T11:45:53Z) - Large Language Models with Controllable Working Memory [64.71038763708161]
大規模言語モデル(LLM)は、自然言語処理(NLP)の一連のブレークスルーをもたらした。
これらのモデルをさらに切り離すのは、事前訓練中に内在する膨大な量の世界的知識だ。
モデルの世界知識が、文脈で提示された事実情報とどのように相互作用するかは、まだ解明されていない。
論文 参考訳(メタデータ) (2022-11-09T18:58:29Z) - Analyzing Robustness of End-to-End Neural Models for Automatic Speech
Recognition [11.489161072526677]
音声認識のための事前学習ニューラルネットワークのロバスト性について検討する。
本研究では,LibriSpeechおよびTIMITデータセット上で,事前学習したニューラルネットワークwav2vec2, HuBERT, DistilHuBERTのロバスト性解析を行う。
論文 参考訳(メタデータ) (2022-08-17T20:00:54Z) - Self-Supervised Learning for speech recognition with Intermediate layer
supervision [52.93758711230248]
自己教師付き学習(ILS-SSL)のための中間層スーパービジョンを提案する。
ILS-SSLは、中間層にSSL損失を追加することで、可能な限りコンテンツ情報に集中させます。
LibriSpeech の他のテストセットの実験により,本手法は HuBERT を著しく上回っていることがわかった。
論文 参考訳(メタデータ) (2021-12-16T10:45:05Z) - Understanding Self-supervised Learning with Dual Deep Networks [74.92916579635336]
本稿では,2組の深層ReLUネットワークを用いたコントラスト型自己教師学習(SSL)手法を理解するための新しい枠組みを提案する。
種々の損失関数を持つSimCLRの各SGD更新において、各層の重みは共分散演算子によって更新されることを示す。
共分散演算子の役割と、そのようなプロセスでどのような特徴が学習されるかをさらに研究するために、我々は、階層的潜在木モデル(HLTM)を用いて、データ生成および増大過程をモデル化する。
論文 参考訳(メタデータ) (2020-10-01T17:51:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。