論文の概要: Using Persuasive Writing Strategies to Explain and Detect Health Misinformation
- arxiv url: http://arxiv.org/abs/2211.05985v3
- Date: Mon, 1 Apr 2024 04:08:28 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-04 14:21:15.302194
- Title: Using Persuasive Writing Strategies to Explain and Detect Health Misinformation
- Title(参考訳): 説得力のある筆記手法による健康情報の説明と検出
- Authors: Danial Kamali, Joseph Romain, Huiyi Liu, Wei Peng, Jingbo Meng, Parisa Kordjamshidi,
- Abstract要約: 本稿では,多くの一般的な筆記法を取り入れた新しいアノテーション手法を提案する。
テキスト分類にRoBERTaモデルを用いるのは,NLPの性能が高いためである。
言語モデルに基づくベースラインを複数開発し,説得的戦略ラベル予測の結果を示す。
- 参考スコア(独自算出の注目度): 15.748429583896232
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The spread of misinformation is a prominent problem in today's society, and many researchers in academia and industry are trying to combat it. Due to the vast amount of misinformation that is created every day, it is unrealistic to leave this task to human fact-checkers. Data scientists and researchers have been working on automated misinformation detection for years, and it is still a challenging problem today. The goal of our research is to add a new level to automated misinformation detection; classifying segments of text with persuasive writing techniques in order to produce interpretable reasoning for why an article can be marked as misinformation. To accomplish this, we present a novel annotation scheme containing many common persuasive writing tactics, along with a dataset with human annotations accordingly. For this task, we make use of a RoBERTa model for text classification, due to its high performance in NLP. We develop several language model-based baselines and present the results of our persuasive strategy label predictions as well as the improvements these intermediate labels make in detecting misinformation and producing interpretable results.
- Abstract(参考訳): 誤報の拡散は今日の社会で顕著な問題であり、学術や産業の多くの研究者がそれと戦おうとしている。
毎日発生する大量の誤報のため、このタスクを人間のファクトチェッカーに任せるのは現実的ではない。
データ科学者と研究者は何年もの間、誤情報の自動検出に取り組んできたが、今日でも難しい問題だ。
本研究の目的は, 自動誤報検出に新たなレベルを加えることであり, 記事が誤報としてマークされる理由の解釈可能な推論を生成するために, 説得力のある筆法でテキストのセグメントを分類することである。
そこで本研究では,人間のアノテーションを付加したデータセットとともに,多くの一般的な説得的記述手法を含む新しいアノテーション方式を提案する。
そこで本研究では,テキスト分類にRoBERTaモデルを用いる。
我々は,複数の言語モデルに基づくベースラインを開発し,それらの中間ラベルが誤情報を検出し,解釈可能な結果を生成する際の改善とともに,説得的戦略ラベル予測の結果を示す。
関連論文リスト
- ClaimVer: Explainable Claim-Level Verification and Evidence Attribution of Text Through Knowledge Graphs [13.608282497568108]
$textitClaimVerは、ユーザの情報や検証のニーズを満たすための、人間中心のフレームワークである。
各クレームをハイライトし、信頼された知識グラフに対して検証し、クレームの予測に対して簡潔で明確な説明を提供する。
論文 参考訳(メタデータ) (2024-03-12T17:07:53Z) - Detecting misinformation through Framing Theory: the Frame Element-based
Model [6.4618518529384765]
私たちは、AIコミュニティの中で探索されていない領域である物語フレームのニュアンスな操作に焦点を当てています。
本稿では,事前学習された大規模言語モデルと深層ニューラルネットワークの力を利用して誤情報を検出する革新的な手法を提案する。
論文 参考訳(メタデータ) (2024-02-19T21:50:42Z) - InfoLossQA: Characterizing and Recovering Information Loss in Text
Simplification [62.61201551494709]
本研究は, 簡易化による情報損失を問合せ・問合せ形式で特徴づけ, 回復する枠組みを提案する。
QAペアは、読者がテキストの知識を深めるのに役立つように設計されている。
論文 参考訳(メタデータ) (2024-01-29T19:00:01Z) - Enhancing Argument Structure Extraction with Efficient Leverage of
Contextual Information [79.06082391992545]
本稿では,コンテキスト情報を完全に活用する効率的なコンテキスト認識モデル(ECASE)を提案する。
文脈情報や議論情報を集約するために,シーケンスアテンションモジュールと距離重み付き類似度損失を導入する。
各種ドメインの5つのデータセットに対する実験により,我々のモデルが最先端の性能を達成することを示す。
論文 参考訳(メタデータ) (2023-10-08T08:47:10Z) - Iterative Zero-Shot LLM Prompting for Knowledge Graph Construction [104.29108668347727]
本稿では,最新の生成型大規模言語モデルの可能性を活用する,革新的な知識グラフ生成手法を提案する。
このアプローチは、新しい反復的なゼロショットと外部知識に依存しない戦略を含むパイプラインで伝達される。
我々は、我々の提案がスケーラブルで多目的な知識グラフ構築に適したソリューションであり、異なる新しい文脈に適用できると主張している。
論文 参考訳(メタデータ) (2023-07-03T16:01:45Z) - Context-faithful Prompting for Large Language Models [51.194410884263135]
大言語モデル(LLM)は世界事実に関するパラメトリック知識を符号化する。
パラメトリック知識への依存は、文脈的手がかりを見落とし、文脈に敏感なNLPタスクにおいて誤った予測をもたらす可能性がある。
我々は, LLMの文脈的忠実度を, 知識の衝突と, 棄権による予測の2つの側面で評価し, 向上する。
論文 参考訳(メタデータ) (2023-03-20T17:54:58Z) - Persuasion Strategies in Advertisements [68.70313043201882]
我々は,説得戦略の広範な語彙を導入し,説得戦略を付加した最初の広告画像コーパスを構築した。
次に,マルチモーダル学習による説得戦略予測のタスクを定式化する。
我々は、Fortune-500社の1600件の広告キャンペーンについて、現実世界でケーススタディを実施している。
論文 参考訳(メタデータ) (2022-08-20T07:33:13Z) - Detecting Cross-Modal Inconsistency to Defend Against Neural Fake News [57.9843300852526]
我々は、画像やキャプションを含む機械生成ニュースに対して、より現実的で挑戦的な対策を導入する。
敵が悪用できる可能性のある弱点を特定するために、4つの異なる種類の生成された記事からなるNeuralNewsデータセットを作成します。
ユーザ実験から得られた貴重な知見に加えて,視覚的意味的不整合の検出にもとづく比較的効果的なアプローチを提案する。
論文 参考訳(メタデータ) (2020-09-16T14:13:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。