論文の概要: Sentimental LIAR: Extended Corpus and Deep Learning Models for Fake
Claim Classification
- arxiv url: http://arxiv.org/abs/2009.01047v2
- Date: Thu, 22 Oct 2020 04:57:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-23 00:26:29.734056
- Title: Sentimental LIAR: Extended Corpus and Deep Learning Models for Fake
Claim Classification
- Title(参考訳): 感情的嘘つき:偽クレーム分類のための拡張コーパスとディープラーニングモデル
- Authors: Bibek Upadhayay and Vahid Behzadan
- Abstract要約: 本稿では,ソーシャルメディア上での誤文クレームの自動検出のための新しい深層学習手法を提案する。
まず,感傷的LIARを紹介する。このLIARデータセットは,クレームの感情分析と感情分析に基づく特徴を加えることで,短いクレームのLIARデータセットを拡張する。
この結果から,センチメンタルLIARでトレーニングしたアーキテクチャでは70%の精度が得られ,従来報告したLIARベンチマークよりも30%向上したことがわかった。
- 参考スコア(独自算出の注目度): 11.650381752104296
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The rampant integration of social media in our every day lives and culture
has given rise to fast and easier access to the flow of information than ever
in human history. However, the inherently unsupervised nature of social media
platforms has also made it easier to spread false information and fake news.
Furthermore, the high volume and velocity of information flow in such platforms
make manual supervision and control of information propagation infeasible. This
paper aims to address this issue by proposing a novel deep learning approach
for automated detection of false short-text claims on social media. We first
introduce Sentimental LIAR, which extends the LIAR dataset of short claims by
adding features based on sentiment and emotion analysis of claims. Furthermore,
we propose a novel deep learning architecture based on the BERT-Base language
model for classification of claims as genuine or fake. Our results demonstrate
that the proposed architecture trained on Sentimental LIAR can achieve an
accuracy of 70%, which is an improvement of ~30% over previously reported
results for the LIAR benchmark.
- Abstract(参考訳): 私たちの日々の生活や文化におけるソーシャルメディアの統合は、人類の歴史の中で、情報の流れに素早く簡単にアクセスできるようになる。
しかし、本質的に監視されていないソーシャルメディアプラットフォームの性質により、偽情報や偽ニュースの拡散も容易になった。
さらに、そのようなプラットフォームにおける情報フローの量と速度は、手動による情報伝達の監督と制御を可能とします。
本稿では,ソーシャルメディア上での誤文クレームの自動検出のための新しい深層学習手法を提案する。
まず,感傷的LIARを紹介する。このLIARデータセットは,クレームの感情分析と感情分析に基づく特徴を加えることで,短いクレームのLIARデータセットを拡張する。
さらに,クレームを本物あるいは偽物として分類するためのbert-base言語モデルに基づく新しいディープラーニングアーキテクチャを提案する。
この結果から,センチメンタルLIARでトレーニングしたアーキテクチャでは70%の精度が得られ,従来報告したLIARベンチマークに比べて約30%の精度が向上した。
関連論文リスト
- Automated Claim Matching with Large Language Models: Empowering
Fact-Checkers in the Fight Against Misinformation [11.323961700172175]
FACT-GPTは、大規模言語モデルを用いたファクトチェックのクレームマッチングフェーズを自動化するために設計されたフレームワークである。
このフレームワークは、ファクトチェッカーによって以前否定された主張を支持したり、否定したりする新しいソーシャルメディアコンテンツを識別する。
FACT-GPTを公衆衛生に関連するソーシャルメディアコンテンツのデータセットとして評価した。
論文 参考訳(メタデータ) (2023-10-13T16:21:07Z) - Prompt-and-Align: Prompt-Based Social Alignment for Few-Shot Fake News
Detection [50.07850264495737]
プロンプト・アンド・アライン(Prompt-and-Align、P&A)は、数発のフェイクニュース検出のための新しいプロンプトベースのパラダイムである。
我々はP&Aが、数発のフェイクニュース検出性能をかなりのマージンで新たな最先端に設定していることを示す。
論文 参考訳(メタデータ) (2023-09-28T13:19:43Z) - Unsupervised Sentiment Analysis of Plastic Surgery Social Media Posts [91.3755431537592]
ソーシャルメディアプラットフォームにまたがる膨大なユーザー投稿は、主に人工知能(AI)のユースケースに使われていない。
自然言語処理(NLP)は、コーパス(corpora)として知られるドキュメントの体系を利用して、人間のような言語理解でコンピュータを訓練するAIのサブフィールドである。
本研究は, 教師なし解析の応用により, コンピュータがプラスティック手術に対する否定的, 肯定的, 中立的なユーザ感情を予測できることを示した。
論文 参考訳(メタデータ) (2023-07-05T20:16:20Z) - ManiTweet: A New Benchmark for Identifying Manipulation of News on
Social Media [53.51665032295087]
ソーシャルメディア上でのニュースの操作を識別し,ソーシャルメディア投稿の操作を検出し,操作された情報や挿入された情報を特定することを目的とした,新しいタスクを提案する。
この課題を研究するために,データ収集スキーマを提案し,3.6K対のツイートとそれに対応する記事からなるManiTweetと呼ばれるデータセットをキュレートした。
我々の分析では、このタスクは非常に難しいことを示し、大きな言語モデル(LLM)は不満足なパフォーマンスをもたらす。
論文 参考訳(メタデータ) (2023-05-23T16:40:07Z) - Verifying the Robustness of Automatic Credibility Assessment [79.08422736721764]
テキスト分類法は信頼性の低い内容を検出する手段として広く研究されている。
入力テキストの無意味な変更は、モデルを誤解させることがある。
偽情報検出タスクにおける被害者モデルと攻撃方法の両方をテストするベンチマークであるBODEGAを紹介する。
論文 参考訳(メタデータ) (2023-03-14T16:11:47Z) - FacTeR-Check: Semi-automated fact-checking through Semantic Similarity
and Natural Language Inference [61.068947982746224]
FacTeR-Checkは、ファクトチェックされた情報の検索、未確認のクレームの検証、ソーシャルメディア上での危険な情報の追跡を可能にする。
このアーキテクチャは、NLI19-SPと呼ばれる新しいデータセットを使って検証されている。
この結果から,各ベンチマークにおける最先端性能と,61種類のホアックスの時間経過に伴う進化の有用な解析結果が得られた。
論文 参考訳(メタデータ) (2021-10-27T15:44:54Z) - SRLF: A Stance-aware Reinforcement Learning Framework for Content-based
Rumor Detection on Social Media [15.985224010346593]
初期のコンテンツベースの方法は、噂の検出のためにテキストとユーザープロファイルから手がかりを見つけることに集中した。
近年の研究では、ユーザのコメントとニュースコンテンツを組み合わせて、真実と偽の噂の違いを捉えている。
本稿では,モデルトレーニングと噂検出のための高品質なラベル付き姿勢データを選択するための,SRLF(Stance-Aware Reinforcement Learning Framework)を提案する。
論文 参考訳(メタデータ) (2021-05-10T03:58:34Z) - The Surprising Performance of Simple Baselines for Misinformation
Detection [4.060731229044571]
我々は、現代のトランスフォーマーベースの言語モデルの広いセットのパフォーマンスを調べます。
誤情報検出の新たな手法の創出と評価のベースラインとして,本フレームワークを提案する。
論文 参考訳(メタデータ) (2021-04-14T16:25:22Z) - Independent Component Analysis for Trustworthy Cyberspace during High
Impact Events: An Application to Covid-19 [4.629100947762816]
新型コロナウイルス(COVID-19)の感染拡大など、ソーシャルメディアは重要なコミュニケーションチャンネルとなっている。
ソーシャルメディアにおける誤報が急速に拡散し、社会不安を生じさせるため、そのような出来事における誤報の拡散は重要なデータ課題である。
本稿では,ICAモデルに基づくデータ駆動型ソリューションを提案する。
論文 参考訳(メタデータ) (2020-06-01T21:48:22Z) - Leveraging Multi-Source Weak Social Supervision for Early Detection of
Fake News [67.53424807783414]
ソーシャルメディアは、人々が前例のない速度でオンライン活動に参加することを可能にする。
この制限のないアクセスは、誤情報や偽ニュースの拡散を悪化させ、その緩和のために早期に検出されない限り混乱と混乱を引き起こす可能性がある。
ソーシャルエンゲージメントからの弱い信号とともに、限られた量のクリーンデータを活用して、メタラーニングフレームワークでディープニューラルネットワークをトレーニングし、さまざまな弱いインスタンスの品質を推定します。
実世界のデータセットの実験では、提案されたフレームワークは、予測時にユーザーエンゲージメントを使わずに、フェイクニュースを早期に検出するための最先端のベースラインを上回っている。
論文 参考訳(メタデータ) (2020-04-03T18:26:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。