論文の概要: Misinformation Detection using Persuasive Writing Strategies
- arxiv url: http://arxiv.org/abs/2211.05985v1
- Date: Fri, 11 Nov 2022 03:26:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-14 15:22:06.680548
- Title: Misinformation Detection using Persuasive Writing Strategies
- Title(参考訳): 説得的書き方を用いた誤情報検出
- Authors: Joseph Romain, Huiyi Liu, Wei Peng, Jingbo Meng, Parisa Kordjamshidi
- Abstract要約: 本稿では,多くの一般的な筆記法を取り入れた新しいアノテーション手法を提案する。
テキスト分類にRoBERTaモデルを用いるのは,NLPの性能が高いためである。
言語モデルに基づくベースラインを複数開発し,説得的戦略ラベル予測の結果を示す。
- 参考スコア(独自算出の注目度): 11.335734383835772
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The spread of misinformation is a prominent problem in today's society, and
many researchers in academia and industry are trying to combat it. Due to the
vast amount of misinformation that is created every day, it is unrealistic to
leave this task to human fact-checkers. Data scientists and researchers have
been working on automated misinformation detection for years, and it is still a
challenging problem today. The goal of our research is to add a new level to
automated misinformation detection; classifying segments of text with
persuasive writing techniques in order to produce interpretable reasoning for
why an article can be marked as misinformation. To accomplish this, we present
a novel annotation scheme containing many common persuasive writing tactics,
along with a dataset with human annotations accordingly. For this task, we make
use of a RoBERTa model for text classification, due to its high performance in
NLP. We develop several language model-based baselines and present the results
of our persuasive strategy label predictions as well as the improvements these
intermediate labels make in detecting misinformation and producing
interpretable results.
- Abstract(参考訳): 誤報の拡散は今日の社会で顕著な問題であり、学術や産業の多くの研究者がそれと戦おうとしている。
毎日生成される膨大な誤った情報のために、このタスクを人間のファクトチェックに委ねるのは非現実的です。
データ科学者と研究者は何年もの間、誤情報の自動検出に取り組んできたが、今日でも難しい問題だ。
本研究の目的は,文章のセグメントを説得力のある書き方で分類することで,なぜ記事が誤情報としてマークされるのかを解釈可能な推論を行うことである。
そこで本研究では,人間のアノテーションを用いたデータセットと共に,多くの一般的な説得力のある記述戦術を含む新しいアノテーションスキームを提案する。
そこで本研究では,テキスト分類にRoBERTaモデルを用いる。
言語モデルに基づくベースラインを複数開発し,提案する説得戦略ラベル予測の結果と,それらの中間ラベルが誤情報を検出し,解釈可能な結果を生成するための改善点を示す。
関連論文リスト
- ManiTweet: A New Benchmark for Identifying Manipulation of News on
Social Media [53.51665032295087]
ソーシャルメディア上でのニュースの操作を識別し,ソーシャルメディア投稿の操作を検出し,操作された情報や挿入された情報を特定することを目的とした,新しいタスクを提案する。
この課題を研究するために,データ収集スキーマを提案し,3.6K対のツイートとそれに対応する記事からなるManiTweetと呼ばれるデータセットをキュレートした。
我々の分析では、このタスクは非常に難しいことを示し、大きな言語モデル(LLM)は不満足なパフォーマンスをもたらす。
論文 参考訳(メタデータ) (2023-05-23T16:40:07Z) - Verifying the Robustness of Automatic Credibility Assessment [79.08422736721764]
テキスト分類法は信頼性の低い内容を検出する手段として広く研究されている。
入力テキストの無意味な変更は、モデルを誤解させることがある。
偽情報検出タスクにおける被害者モデルと攻撃方法の両方をテストするベンチマークであるBODEGAを紹介する。
論文 参考訳(メタデータ) (2023-03-14T16:11:47Z) - Paraphrase Identification with Deep Learning: A Review of Datasets and
Methods [0.0]
GPT-3やChatGPTのようなテキスト生成ツールは、様々な形式のメディアの信頼性に深刻な脅威をもたらす可能性がある。
このタイプの盗作行為を検出することは、これらの方法が訓練されているデータセットの異なる性質のため、依然として困難である。
論文 参考訳(メタデータ) (2022-12-13T23:06:20Z) - Annotation Error Detection: Analyzing the Past and Present for a More
Coherent Future [63.99570204416711]
我々は、潜在的なアノテーションの誤りを検知するための18の手法を再実装し、9つの英語データセット上で評価する。
アノテーションエラー検出タスクの新しい形式化を含む一様評価設定を定義する。
私たちはデータセットと実装を,使いやすく,オープンソースのソフトウェアパッケージとしてリリースしています。
論文 参考訳(メタデータ) (2022-06-05T22:31:45Z) - Summarization with Graphical Elements [55.5913491389047]
本稿では,グラフィカル要素による要約という新しい課題を提案する。
タスクの研究を支援するために,高品質なラベル付きデータセットを収集する。
論文 参考訳(メタデータ) (2022-04-15T17:16:41Z) - Toward Educator-focused Automated Scoring Systems for Reading and
Writing [0.0]
本稿では,データとラベルの可用性,信頼性と拡張性,ドメインスコアリング,プロンプトとソースの多様性,伝達学習といった課題に対処する。
モデルトレーニングコストを増大させることなく、エッセイの長さを重要な特徴として保持する技術を採用している。
論文 参考訳(メタデータ) (2021-12-22T15:44:30Z) - Revisiting Self-Training for Few-Shot Learning of Language Model [61.173976954360334]
ラベル付きデータにはタスク関連情報が豊富に含まれており、言語モデルの素早い学習に有用であることが証明されている。
本研究では,言語モデルファインチューニングのための自己学習手法を再検討し,最先端のプロンプトベースの少ショット学習者,SFLMを提案する。
論文 参考訳(メタデータ) (2021-10-04T08:51:36Z) - Automatic Detection of Machine Generated Text: A Critical Survey [19.186417923475144]
テキスト生成モデル(TGM)は、人間の言語スタイルに適したテキストを生成する。
TGMは、偽ニュースや偽商品レビューを自動的に生成することで、敵によって誤用される可能性がある。
TGMが生成したテキストと人間のテキストとを区別できる検出器は、そのような誤用を緩和する上で重要な役割を果たす。
論文 参考訳(メタデータ) (2020-11-02T20:59:26Z) - ReSCo-CC: Unsupervised Identification of Key Disinformation Sentences [3.7405995078130148]
本稿では,信頼できない文書に含まれる重要な偽情報を含む文を識別する新規な教師なしタスクを提案する。
そこで我々は,まず,タスク用に設計された特徴空間内に文を埋め込むことから始まる,3段階の統計的NLPソリューションを設計する。
本手法は, コア情報の同定を効果的に行うことができることを示す。
論文 参考訳(メタデータ) (2020-10-21T08:53:36Z) - Detecting Cross-Modal Inconsistency to Defend Against Neural Fake News [57.9843300852526]
我々は、画像やキャプションを含む機械生成ニュースに対して、より現実的で挑戦的な対策を導入する。
敵が悪用できる可能性のある弱点を特定するために、4つの異なる種類の生成された記事からなるNeuralNewsデータセットを作成します。
ユーザ実験から得られた貴重な知見に加えて,視覚的意味的不整合の検出にもとづく比較的効果的なアプローチを提案する。
論文 参考訳(メタデータ) (2020-09-16T14:13:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。