論文の概要: Sentimental LIAR: Extended Corpus and Deep Learning Models for Fake
Claim Classification
- arxiv url: http://arxiv.org/abs/2009.01047v2
- Date: Thu, 22 Oct 2020 04:57:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-23 00:26:29.734056
- Title: Sentimental LIAR: Extended Corpus and Deep Learning Models for Fake
Claim Classification
- Title(参考訳): 感情的嘘つき:偽クレーム分類のための拡張コーパスとディープラーニングモデル
- Authors: Bibek Upadhayay and Vahid Behzadan
- Abstract要約: 本稿では,ソーシャルメディア上での誤文クレームの自動検出のための新しい深層学習手法を提案する。
まず,感傷的LIARを紹介する。このLIARデータセットは,クレームの感情分析と感情分析に基づく特徴を加えることで,短いクレームのLIARデータセットを拡張する。
この結果から,センチメンタルLIARでトレーニングしたアーキテクチャでは70%の精度が得られ,従来報告したLIARベンチマークよりも30%向上したことがわかった。
- 参考スコア(独自算出の注目度): 11.650381752104296
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The rampant integration of social media in our every day lives and culture
has given rise to fast and easier access to the flow of information than ever
in human history. However, the inherently unsupervised nature of social media
platforms has also made it easier to spread false information and fake news.
Furthermore, the high volume and velocity of information flow in such platforms
make manual supervision and control of information propagation infeasible. This
paper aims to address this issue by proposing a novel deep learning approach
for automated detection of false short-text claims on social media. We first
introduce Sentimental LIAR, which extends the LIAR dataset of short claims by
adding features based on sentiment and emotion analysis of claims. Furthermore,
we propose a novel deep learning architecture based on the BERT-Base language
model for classification of claims as genuine or fake. Our results demonstrate
that the proposed architecture trained on Sentimental LIAR can achieve an
accuracy of 70%, which is an improvement of ~30% over previously reported
results for the LIAR benchmark.
- Abstract(参考訳): 私たちの日々の生活や文化におけるソーシャルメディアの統合は、人類の歴史の中で、情報の流れに素早く簡単にアクセスできるようになる。
しかし、本質的に監視されていないソーシャルメディアプラットフォームの性質により、偽情報や偽ニュースの拡散も容易になった。
さらに、そのようなプラットフォームにおける情報フローの量と速度は、手動による情報伝達の監督と制御を可能とします。
本稿では,ソーシャルメディア上での誤文クレームの自動検出のための新しい深層学習手法を提案する。
まず,感傷的LIARを紹介する。このLIARデータセットは,クレームの感情分析と感情分析に基づく特徴を加えることで,短いクレームのLIARデータセットを拡張する。
さらに,クレームを本物あるいは偽物として分類するためのbert-base言語モデルに基づく新しいディープラーニングアーキテクチャを提案する。
この結果から,センチメンタルLIARでトレーニングしたアーキテクチャでは70%の精度が得られ,従来報告したLIARベンチマークに比べて約30%の精度が向上した。
関連論文リスト
- Epidemiology-informed Network for Robust Rumor Detection [59.89351792706995]
本稿では, 疫学知識を統合し, 性能を高めるための新しい疫学情報ネットワーク(EIN)を提案する。
疫学理論をうわさ検出に適応させるため,各利用者が情報源情報に対する姿勢を付加することが期待されている。
実験結果から,提案したEINは実世界のデータセット上で最先端の手法より優れるだけでなく,樹木の深度にまたがる堅牢性も向上することが示された。
論文 参考訳(メタデータ) (2024-11-20T00:43:32Z) - A Semi-supervised Fake News Detection using Sentiment Encoding and LSTM with Self-Attention [0.0]
本研究では,感情分析を最先端の事前学習モデルによって獲得する半教師付き自己学習手法を提案する。
学習モデルは半教師付き方式で訓練され、LSTMに自己注意層を組み込む。
我々は,2万件のニュースコンテンツをデータセットにベンチマークし,そのフィードバックとともに,フェイクニュース検出における競合手法と比較して精度,リコール,測定性能が向上したことを示す。
論文 参考訳(メタデータ) (2024-07-27T20:00:10Z) - Exposing and Explaining Fake News On-the-Fly [4.278181795494584]
この研究は、偽ニュースをリアルタイムで認識するための説明可能なオンライン分類手法に寄与する。
提案手法は、教師なしおよび教師なしの機械学習アプローチとオンライン生成レキシカを組み合わせたものである。
提案手法の性能はTwitterの実際のデータセットで検証され,その結果は80%精度とマクロF測定値を得た。
論文 参考訳(メタデータ) (2024-05-03T14:49:04Z) - The Future of Combating Rumors? Retrieval, Discrimination, and Generation [5.096418029931098]
人工知能生成コンテンツ(AIGC)技術開発は、誤情報による噂の作成を促進する。
現在の噂検出努力は、誤報を単にラベル付けするだけで不足している。
提案手法は,噂を検知するだけでなく,情報の有効性を否定する説明的コンテンツも提供する。
論文 参考訳(メタデータ) (2024-03-29T14:32:41Z) - Prompt-and-Align: Prompt-Based Social Alignment for Few-Shot Fake News
Detection [50.07850264495737]
プロンプト・アンド・アライン(Prompt-and-Align、P&A)は、数発のフェイクニュース検出のための新しいプロンプトベースのパラダイムである。
我々はP&Aが、数発のフェイクニュース検出性能をかなりのマージンで新たな最先端に設定していることを示す。
論文 参考訳(メタデータ) (2023-09-28T13:19:43Z) - Unsupervised Sentiment Analysis of Plastic Surgery Social Media Posts [91.3755431537592]
ソーシャルメディアプラットフォームにまたがる膨大なユーザー投稿は、主に人工知能(AI)のユースケースに使われていない。
自然言語処理(NLP)は、コーパス(corpora)として知られるドキュメントの体系を利用して、人間のような言語理解でコンピュータを訓練するAIのサブフィールドである。
本研究は, 教師なし解析の応用により, コンピュータがプラスティック手術に対する否定的, 肯定的, 中立的なユーザ感情を予測できることを示した。
論文 参考訳(メタデータ) (2023-07-05T20:16:20Z) - ManiTweet: A New Benchmark for Identifying Manipulation of News on Social Media [74.93847489218008]
ソーシャルメディア上でのニュースの操作を識別し,ソーシャルメディア投稿の操作を検出し,操作された情報や挿入された情報を特定することを目的とした,新しいタスクを提案する。
この課題を研究するために,データ収集スキーマを提案し,3.6K対のツイートとそれに対応する記事からなるManiTweetと呼ばれるデータセットをキュレートした。
我々の分析では、このタスクは非常に難しいことを示し、大きな言語モデル(LLM)は不満足なパフォーマンスをもたらす。
論文 参考訳(メタデータ) (2023-05-23T16:40:07Z) - FacTeR-Check: Semi-automated fact-checking through Semantic Similarity
and Natural Language Inference [61.068947982746224]
FacTeR-Checkは、ファクトチェックされた情報の検索、未確認のクレームの検証、ソーシャルメディア上での危険な情報の追跡を可能にする。
このアーキテクチャは、NLI19-SPと呼ばれる新しいデータセットを使って検証されている。
この結果から,各ベンチマークにおける最先端性能と,61種類のホアックスの時間経過に伴う進化の有用な解析結果が得られた。
論文 参考訳(メタデータ) (2021-10-27T15:44:54Z) - Independent Component Analysis for Trustworthy Cyberspace during High
Impact Events: An Application to Covid-19 [4.629100947762816]
新型コロナウイルス(COVID-19)の感染拡大など、ソーシャルメディアは重要なコミュニケーションチャンネルとなっている。
ソーシャルメディアにおける誤報が急速に拡散し、社会不安を生じさせるため、そのような出来事における誤報の拡散は重要なデータ課題である。
本稿では,ICAモデルに基づくデータ駆動型ソリューションを提案する。
論文 参考訳(メタデータ) (2020-06-01T21:48:22Z) - Leveraging Multi-Source Weak Social Supervision for Early Detection of
Fake News [67.53424807783414]
ソーシャルメディアは、人々が前例のない速度でオンライン活動に参加することを可能にする。
この制限のないアクセスは、誤情報や偽ニュースの拡散を悪化させ、その緩和のために早期に検出されない限り混乱と混乱を引き起こす可能性がある。
ソーシャルエンゲージメントからの弱い信号とともに、限られた量のクリーンデータを活用して、メタラーニングフレームワークでディープニューラルネットワークをトレーニングし、さまざまな弱いインスタンスの品質を推定します。
実世界のデータセットの実験では、提案されたフレームワークは、予測時にユーザーエンゲージメントを使わずに、フェイクニュースを早期に検出するための最先端のベースラインを上回っている。
論文 参考訳(メタデータ) (2020-04-03T18:26:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。