論文の概要: Troll Tweet Detection Using Contextualized Word Representations
- arxiv url: http://arxiv.org/abs/2207.08230v1
- Date: Sun, 17 Jul 2022 17:12:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-20 04:47:06.226058
- Title: Troll Tweet Detection Using Contextualized Word Representations
- Title(参考訳): 文脈付き単語表現を用いたトロルツイート検出
- Authors: Seyhmus Yilmaz and Sultan Zavrak
- Abstract要約: 本稿では,9つのディープラーニングに基づくトロルツイート検出アーキテクチャを実装し,比較する。
BERTモデルを使用したほとんどのアーキテクチャはトロルツイートの検出を改善した。
GRU分類器を備えたカスタマイズされたELMoベースのアーキテクチャは、トロルメッセージを検出する最も高いAUCを有する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years, many troll accounts have emerged to manipulate social media
opinion. Detecting and eradicating trolling is a critical issue for
social-networking platforms because businesses, abusers, and
nation-state-sponsored troll farms use false and automated accounts. NLP
techniques are used to extract data from social networking text, such as
Twitter tweets. In many text processing applications, word embedding
representation methods, such as BERT, have performed better than prior NLP
techniques, offering novel breaks to precisely comprehend and categorize
social-networking information for various tasks. This paper implements and
compares nine deep learning-based troll tweet detection architectures, with
three models for each BERT, ELMo, and GloVe word embedding model. Precision,
recall, F1 score, AUC, and classification accuracy are used to evaluate each
architecture. From the experimental results, most architectures using BERT
models improved troll tweet detection. A customized ELMo-based architecture
with a GRU classifier has the highest AUC for detecting troll messages. The
proposed architectures can be used by various social-based systems to detect
troll messages in the future.
- Abstract(参考訳): 近年、ソーシャルメディアの意見を操作するために多くのトロルアカウントが出現している。
企業、虐待者、国家が支援するトロルファームは偽アカウントと自動アカウントを使っているため、トロールの検出と根絶はソーシャルネットワーキングプラットフォームにとって重要な問題である。
NLP技術は、Twitterツイートなどのソーシャルネットワーキングテキストからデータを抽出するために使用される。
多くのテキスト処理アプリケーションにおいて、BERTのような単語埋め込み表現法は従来のNLP技術よりも優れており、様々なタスクのソーシャルネットワーキング情報を正確に理解し分類するための斬新なブレークを提供する。
本稿では,9つのディープラーニングに基づくトロルツイート検出アーキテクチャを,BERT,ELMo,GloVeの各単語埋め込みモデルで実装し比較する。
各アーキテクチャを評価するには、精度、リコール、F1スコア、AUC、分類精度を使用する。
実験結果から、BERTモデルを用いたほとんどのアーキテクチャはトロルツイート検出を改善した。
GRU分類器を備えたカスタマイズされたELMoベースのアーキテクチャは、トロルメッセージを検出する最も高いAUCを有する。
提案アーキテクチャは、将来、様々なソーシャルベースのシステムでトロルメッセージを検出することができる。
関連論文リスト
- Pronunciation Assessment with Multi-modal Large Language Models [10.35401596425946]
大規模言語モデル(LLM)に基づくスコアリングシステムを提案する。
音声エンコーダは、まず学習者の音声を文脈的特徴にマッピングする。
アダプタ層は、これらの機能を潜在空間に埋め込まれたテキストに合わせるように変換する。
論文 参考訳(メタデータ) (2024-07-12T12:16:14Z) - Unifying Structure and Language Semantic for Efficient Contrastive
Knowledge Graph Completion with Structured Entity Anchors [0.3913403111891026]
知識グラフ補完(KGC)の目標は、すでに知られている訓練された事実を用いて、KGの欠落したリンクを予測することである。
本稿では,帰納的推論の力を失うことなく,構造情報と言語意味を効果的に統一する手法を提案する。
論文 参考訳(メタデータ) (2023-11-07T11:17:55Z) - Fuzzy Fingerprinting Transformer Language-Models for Emotion Recognition
in Conversations [0.7874708385247353]
会話における感情認識(ERC)を実現するための2つのアプローチを組み合わせることを提案する。
我々は,事前に訓練したRoBERTaに発話と以前の会話のターンを供給し,文脈的埋め込み発話表現を得る。
広く使われているDailyDialog ERCベンチマークデータセットに対するアプローチを検証する。
論文 参考訳(メタデータ) (2023-09-08T12:26:01Z) - Unsupervised Sentiment Analysis of Plastic Surgery Social Media Posts [91.3755431537592]
ソーシャルメディアプラットフォームにまたがる膨大なユーザー投稿は、主に人工知能(AI)のユースケースに使われていない。
自然言語処理(NLP)は、コーパス(corpora)として知られるドキュメントの体系を利用して、人間のような言語理解でコンピュータを訓練するAIのサブフィールドである。
本研究は, 教師なし解析の応用により, コンピュータがプラスティック手術に対する否定的, 肯定的, 中立的なユーザ感情を予測できることを示した。
論文 参考訳(メタデータ) (2023-07-05T20:16:20Z) - Prefer to Classify: Improving Text Classifiers via Auxiliary Preference
Learning [76.43827771613127]
本稿では、このような補助データアノテーションの新しい代替手段として、入力テキストのペア間のタスク固有の嗜好について検討する。
本稿では、与えられた分類課題と補助的選好の両方を学ぶことの協調効果を享受できる、P2Cと呼ばれる新しいマルチタスク学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-08T04:04:47Z) - CSSL-MHTR: Continual Self-Supervised Learning for Scalable Multi-script Handwritten Text Recognition [16.987008461171065]
我々は,手書き文字認識における破滅的な忘れの問題を軽減するために,連続的な自己指導型学習の可能性を探究する。
提案手法は,各タスクにアダプタと呼ばれる中間層を追加し,現在のタスクを学習しながら,前モデルからの知識を効率的に抽出する。
私たちは英語、イタリア語、ロシア語のスクリプトで最先端のパフォーマンスを達成しましたが、タスクごとにいくつかのパラメータしか追加していません。
論文 参考訳(メタデータ) (2023-03-16T14:27:45Z) - Lexically Aware Semi-Supervised Learning for OCR Post-Correction [90.54336622024299]
世界中の多くの言語における既存の言語データの多くは、非デジタル化された書籍や文書に閉じ込められている。
従来の研究は、あまり良くない言語を認識するためのニューラル・ポスト・コレクション法の有用性を実証してきた。
そこで本研究では,生画像を利用した半教師付き学習手法を提案する。
論文 参考訳(メタデータ) (2021-11-04T04:39:02Z) - AES Systems Are Both Overstable And Oversensitive: Explaining Why And
Proposing Defenses [66.49753193098356]
スコアリングモデルの驚くべき逆方向の脆さの原因について検討する。
のモデルとして訓練されているにもかかわらず、単語の袋のように振る舞うことを示唆している。
高い精度で試料を発生させる過敏性と過敏性を検出できる検出ベース保護モデルを提案する。
論文 参考訳(メタデータ) (2021-09-24T03:49:38Z) - Sentiment analysis in tweets: an assessment study from classical to
modern text representation models [59.107260266206445]
Twitterで公開された短いテキストは、豊富な情報源として大きな注目を集めている。
非公式な言語スタイルや騒々しい言語スタイルといったそれらの固有の特徴は、多くの自然言語処理(NLP)タスクに挑戦し続けている。
本研究では,22データセットの豊富なコレクションを用いて,ツイートに表される感情を識別する既存言語モデルの評価を行った。
論文 参考訳(メタデータ) (2021-05-29T21:05:28Z) - Comparative Analysis of Machine Learning and Deep Learning Algorithms
for Detection of Online Hate Speech [5.543220407902113]
機械学習を用いてヘイトスピーチを分類する試みはいくつかあるが、最先端のモデルは実用的な応用には不十分である。
本稿では,様々な埋め込みから従来のNLPアルゴリズムまで,さまざまな特徴工学手法について検討する。
BERTをベースとした埋め込みは、この問題に最も有用な機能を提供し、実用的な堅牢なモデルにできる能力を持っていると結論付けている。
論文 参考訳(メタデータ) (2021-04-23T04:19:15Z) - Explicit Alignment Objectives for Multilingual Bidirectional Encoders [111.65322283420805]
本稿では,多言語エンコーダAMBER(Aligned Multilingual Bi-directional EncodeR)の学習方法を提案する。
AMBERは、異なる粒度で多言語表現を整列する2つの明示的なアライメント目標を使用して、追加の並列データに基づいて訓練される。
実験結果から、AMBERは、シーケンスタグ付けで1.1平均F1スコア、XLMR-大規模モデル上での検索で27.3平均精度を得ることがわかった。
論文 参考訳(メタデータ) (2020-10-15T18:34:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。