論文の概要: Is Explanation the Cure? Misinformation Mitigation in the Short Term and
Long Term
- arxiv url: http://arxiv.org/abs/2310.17711v1
- Date: Thu, 26 Oct 2023 18:12:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-30 15:59:28.880754
- Title: Is Explanation the Cure? Misinformation Mitigation in the Short Term and
Long Term
- Title(参考訳): 説明は治療か?
短期的・長期的誤情報の緩和
- Authors: Yi-Li Hsu, Shih-Chieh Dai, Aiping Xiong, Lun-Wei Ku
- Abstract要約: 本稿では,警告ラベルの有効性と,GPT-4による誤報の真偽説明とを比較した。
以上の結果から,双方の介入は,短期的・長期的に同等に偽の主張に対する自己申告的信念を著しく低下させることが示唆された。
- 参考スコア(独自算出の注目度): 18.75356596660314
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With advancements in natural language processing (NLP) models, automatic
explanation generation has been proposed to mitigate misinformation on social
media platforms in addition to adding warning labels to identified fake news.
While many researchers have focused on generating good explanations, how these
explanations can really help humans combat fake news is under-explored. In this
study, we compare the effectiveness of a warning label and the state-of-the-art
counterfactual explanations generated by GPT-4 in debunking misinformation. In
a two-wave, online human-subject study, participants (N = 215) were randomly
assigned to a control group in which false contents are shown without any
intervention, a warning tag group in which the false claims were labeled, or an
explanation group in which the false contents were accompanied by GPT-4
generated explanations. Our results show that both interventions significantly
decrease participants' self-reported belief in fake claims in an equivalent
manner for the short-term and long-term. We discuss the implications of our
findings and directions for future NLP-based misinformation debunking
strategies.
- Abstract(参考訳): 自然言語処理(NLP)モデルの進歩に伴い、ソーシャルメディアプラットフォーム上での誤情報を軽減し、偽ニュースを識別する警告ラベルを追加する自動説明生成が提案されている。
多くの研究者は、良い説明を生み出すことに力を入れているが、この説明がいかに人間が偽ニュースと戦うのに本当に役立つかは未解明である。
本研究は,誤報における警告ラベルの有効性と,GPT-4が生み出す最先端の事実的説明とを比較した。
2ウェーブのオンライン人物調査において、参加者(N = 215)は、いかなる介入なしに偽コンテンツを表示する制御グループ、偽クレームをラベル付けした警告タググループ、または、偽コンテンツにGPT-4を付加した説明グループにランダムに割り当てられた。
以上の結果から,両者の介入は,短期的・長期的に同等に偽の主張に対する自己申告的信念を著しく低下させることが示唆された。
今後のNLPに基づく誤情報拡散戦略の発見と方向性について考察する。
関連論文リスト
- PropaInsight: Toward Deeper Understanding of Propaganda in Terms of Techniques, Appeals, and Intent [71.20471076045916]
プロパガンダは世論の形成と偽情報の拡散に重要な役割を果たしている。
Propainsightはプロパガンダを体系的に、技術、覚醒的魅力、そして根底にある意図に分解する。
Propagazeは、人間の注釈付きデータと高品質な合成データを組み合わせる。
論文 参考訳(メタデータ) (2024-09-19T06:28:18Z) - Missci: Reconstructing Fallacies in Misrepresented Science [84.32990746227385]
ソーシャルネットワーク上の健康関連の誤報は、意思決定の貧弱さと現実世界の危険につながる可能性がある。
ミスシは、誤った推論のための新しい議論理論モデルである。
大規模言語モデルの批判的推論能力をテストするためのデータセットとしてMissciを提案する。
論文 参考訳(メタデータ) (2024-06-05T12:11:10Z) - Prompt-and-Align: Prompt-Based Social Alignment for Few-Shot Fake News
Detection [50.07850264495737]
プロンプト・アンド・アライン(Prompt-and-Align、P&A)は、数発のフェイクニュース検出のための新しいプロンプトベースのパラダイムである。
我々はP&Aが、数発のフェイクニュース検出性能をかなりのマージンで新たな最先端に設定していることを示す。
論文 参考訳(メタデータ) (2023-09-28T13:19:43Z) - Ask to Know More: Generating Counterfactual Explanations for Fake Claims [11.135087647482145]
本稿では,あるニュースがなぜ偽物と認識されたのかを理解するために,事実チェック予測を反実的説明を用いて解明することを提案する。
この研究では、偽ニュースの反実的な説明を生成するには、良い質問、矛盾の発見、適切な推論の3つのステップがある。
以上の結果から,提案手法は最先端の手法と比較して,最も有用な説明が得られたことが示唆された。
論文 参考訳(メタデータ) (2022-06-10T04:42:00Z) - Faking Fake News for Real Fake News Detection: Propaganda-loaded
Training Data Generation [105.20743048379387]
提案手法は,人間によるプロパガンダのスタイルや戦略から情報を得た学習例を生成するための新しいフレームワークである。
具体的には、生成した記事の有効性を確保するために、自然言語推論によって導かれる自己臨界シーケンストレーニングを行う。
実験の結果、PropaNewsでトレーニングされた偽ニュース検知器は、2つの公開データセットで3.62~7.69%のF1スコアで人書きの偽情報を検出するのに優れていることがわかった。
論文 参考訳(メタデータ) (2022-03-10T14:24:19Z) - Counterfactual Explanations Can Be Manipulated [40.78019510022835]
反事実的説明の脆弱性を記述した最初のフレームワークを紹介し,その操作方法を示す。
反事実的説明は、それらが堅牢でないことを示す小さな摂動の下で、大きく異なる反事実に収束する可能性がある。
これらのモデルが、監査者に対して公正に見せながら、データ内の特定のサブグループに対して、不公平に低コストなリコースを提供する方法について説明する。
論文 参考訳(メタデータ) (2021-06-04T18:56:15Z) - Social Media COVID-19 Misinformation Interventions Viewed Positively,
But Have Limited Impact [16.484676698355884]
FacebookやTwitterといったソーシャルメディアプラットフォームは、権威のあるリソースにリンクするバナーや、より具体的な「偽情報」ラベルなど、デザインの介入をロールアウトした。
その結果,ほとんどの参加者は介入に対する肯定的な態度を示し,特に偽情報のポスト特異的なラベルが認められた。
しかし、ほとんどの参加者は、他の手段、最も一般的なウェブ検索を通じて誤情報を発見または修正し、プラットフォームが新型コロナウイルス(COVID-19)の偽情報の拡散を抑える余地を示唆している。
論文 参考訳(メタデータ) (2020-12-21T00:02:04Z) - Machine Learning Explanations to Prevent Overtrust in Fake News
Detection [64.46876057393703]
本研究では、ニュースレビュープラットフォームに組み込んだ説明可能なAIアシスタントが、フェイクニュースの拡散と戦う効果について検討する。
我々は、ニュースレビューと共有インターフェースを設計し、ニュース記事のデータセットを作成し、4つの解釈可能なフェイクニュース検出アルゴリズムを訓練する。
説明可能なAIシステムについてより深く理解するために、説明プロセスにおけるユーザエンゲージメント、メンタルモデル、信頼、パフォーマンス対策の相互作用について議論する。
論文 参考訳(メタデータ) (2020-07-24T05:42:29Z) - Misinformation Has High Perplexity [55.47422012881148]
疑似クレームを教師なしの方法でデバンクするために, 難易度を活用することを提案する。
まず,これらの主張に類似した文に基づいて,科学的およびニュースソースから信頼性のある証拠を抽出する。
第2に,抽出したエビデンスを言語モデルにプライマリし,難易度スコアに基づいて与えられたクレームの正当性を評価する。
論文 参考訳(メタデータ) (2020-06-08T15:13:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。