論文の概要: Paying Attention to Deflections: Mining Pragmatic Nuances for Whataboutism Detection in Online Discourse
- arxiv url: http://arxiv.org/abs/2402.09934v2
- Date: Sun, 22 Sep 2024 22:22:27 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-09 04:43:41.191988
- Title: Paying Attention to Deflections: Mining Pragmatic Nuances for Whataboutism Detection in Online Discourse
- Title(参考訳): 思慮に注意を払う:オンライン談話における行動検出のための実践的ニュアンスをマイニングする
- Authors: Khiem Phi, Noushin Salek Faramarzi, Chenlu Wang, Ritwik Banerjee,
- Abstract要約: 物語をディスラプトし、不信を喚起する強力なツールである「Whataboutism」は、量的NLP研究において未発見のままである。
我々は、TwitterとYouTubeからの新しいデータセットを導入し、オーバーラップと、どこが問題なのか、プロパガンダ、そしてTu quoqueの誤用の区別を明らかにした。
我々の実験は、その正確な検出において、非常に独特な課題をもたらし、新しい方法が導入された。
- 参考スコア(独自算出の注目度): 0.07499722271664146
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Whataboutism, a potent tool for disrupting narratives and sowing distrust, remains under-explored in quantitative NLP research. Moreover, past work has not distinguished its use as a strategy for misinformation and propaganda from its use as a tool for pragmatic and semantic framing. We introduce new datasets from Twitter and YouTube, revealing overlaps as well as distinctions between whataboutism, propaganda, and the tu quoque fallacy. Furthermore, drawing on recent work in linguistic semantics, we differentiate the `what about' lexical construct from whataboutism. Our experiments bring to light unique challenges in its accurate detection, prompting the introduction of a novel method using attention weights for negative sample mining. We report significant improvements of 4% and 10% over previous state-of-the-art methods in our Twitter and YouTube collections, respectively.
- Abstract(参考訳): 物語をディスラプトし、不信を喚起する強力なツールである「Whataboutism」は、量的NLP研究において未発見のままである。
また、過去の研究は、誤情報やプロパガンダの戦略としての使用と、実用的・意味的なフレーミングの道具としての使用とを区別していない。
我々は、TwitterとYouTubeからの新しいデータセットを導入し、オーバーラップと、どこが問題なのか、プロパガンダ、そしてTu quoqueの誤用の区別を明らかにした。
さらに、言語意味論における最近の研究に基づき、「何について」の語彙構造と「何について」を区別する。
我々の実験は、その正確な検出において、非常に独特な課題をもたらし、負のサンプルマイニングに注意重みを用いた新しい方法が導入された。
本誌のTwitterとYouTubeのコレクションでは、これまでの最先端の手法に比べて、4%と10%の大幅な改善が報告されている。
関連論文リスト
- PropaInsight: Toward Deeper Understanding of Propaganda in Terms of Techniques, Appeals, and Intent [71.20471076045916]
プロパガンダは世論の形成と偽情報の拡散に重要な役割を果たしている。
Propainsightはプロパガンダを体系的に、技術、覚醒的魅力、そして根底にある意図に分解する。
Propagazeは、人間の注釈付きデータと高品質な合成データを組み合わせる。
論文 参考訳(メタデータ) (2024-09-19T06:28:18Z) - SEPSIS: I Can Catch Your Lies -- A New Paradigm for Deception Detection [9.20397189600732]
本研究は, 心理学のレンズを通して, 騙しの問題を探究するものである。
そこで本研究では,NLP技術を利用した偽造検出のための新しいフレームワークを提案する。
我々は、微調整言語モデルのデータレスマージを利用した、新しいマルチタスク学習パイプラインを提案する。
論文 参考訳(メタデータ) (2023-12-01T02:13:25Z) - HonestBait: Forward References for Attractive but Faithful Headline
Generation [13.456581900511873]
フォワード参照 (FR) は、クリックベイトによく使われる記述技法である。
自己検証プロセスは、急激な発明を避けるために訓練中に含まれる。
本稿では,疑似ニュースと疑似ニュースのペアを含む斬新なデータセットであるPANCO1について紹介する。
論文 参考訳(メタデータ) (2023-06-26T16:34:37Z) - Rumor Detection with Self-supervised Learning on Texts and Social Graph [101.94546286960642]
異種情報ソース上での自己教師型学習を対照的に提案し,それらの関係を明らかにするとともに,噂をよりよく特徴付ける。
我々はこの枠組みをSRD(Self-supervised Rumor Detection)と呼ぶ。
3つの実世界のデータセットに対する大規模な実験により、ソーシャルメディア上での噂の自動検出におけるSRDの有効性が検証された。
論文 参考訳(メタデータ) (2022-04-19T12:10:03Z) - NeuS: Neutral Multi-News Summarization for Mitigating Framing Bias [54.89737992911079]
様々な政治スペクトルの複数のニュース見出しから中立的な要約を生成する新しい課題を提案する。
最も興味深い観察の1つは、生成モデルは、事実的に不正確なコンテンツや検証不可能なコンテンツだけでなく、政治的に偏ったコンテンツにも幻覚を与えることができることである。
論文 参考訳(メタデータ) (2022-04-11T07:06:01Z) - Faking Fake News for Real Fake News Detection: Propaganda-loaded
Training Data Generation [105.20743048379387]
提案手法は,人間によるプロパガンダのスタイルや戦略から情報を得た学習例を生成するための新しいフレームワークである。
具体的には、生成した記事の有効性を確保するために、自然言語推論によって導かれる自己臨界シーケンストレーニングを行う。
実験の結果、PropaNewsでトレーニングされた偽ニュース検知器は、2つの公開データセットで3.62~7.69%のF1スコアで人書きの偽情報を検出するのに優れていることがわかった。
論文 参考訳(メタデータ) (2022-03-10T14:24:19Z) - Mining Fine-grained Semantics via Graph Neural Networks for
Evidence-based Fake News Detection [20.282527436527765]
本稿では,グラフベースのsEmantic sTructureマイニングフレームワークを提案する。
我々は、クレームとエビデンスをグラフ構造化データとしてモデル化し、長距離セマンティック依存関係をキャプチャします。
文脈意味情報を得た後、グラフ構造学習を行うことにより、情報冗長性を低減する。
論文 参考訳(メタデータ) (2022-01-18T11:28:36Z) - Identification of Twitter Bots based on an Explainable ML Framework: the
US 2020 Elections Case Study [72.61531092316092]
本稿では,ラベル付きTwitterデータに基づくTwitterボット識別システムの設計に焦点をあてる。
Supervised Machine Learning (ML)フレームワークは、Extreme Gradient Boosting (XGBoost)アルゴリズムを用いて採用されている。
また、MLモデルの予測を説明するためにShapley Additive Explanations (SHAP)をデプロイした。
論文 参考訳(メタデータ) (2021-12-08T14:12:24Z) - The Spread of Propaganda by Coordinated Communities on Social Media [43.2770127582382]
我々は、2019年イギリス総選挙に関する大規模なTwitterデータセット上で、プロパガンダの拡散とその協調行動との相互作用を分析する。
プロパガンダの利用と協調行動を組み合わせることで、異なるコミュニティの真正性と有害性を明らかにすることができる。
論文 参考訳(メタデータ) (2021-09-27T13:39:10Z) - Cross-Domain Learning for Classifying Propaganda in Online Contents [67.10699378370752]
本稿では,ラベル付き文書や,ニュースやつぶやきからの文をベースとしたクロスドメイン学習の手法を提案する。
本実験は,本手法の有効性を実証し,移動過程におけるソースやターゲットの様々な構成における困難さと限界を同定する。
論文 参考訳(メタデータ) (2020-11-13T10:19:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。