論文の概要: Exposing Paid Opinion Manipulation Trolls
- arxiv url: http://arxiv.org/abs/2109.13726v1
- Date: Sun, 26 Sep 2021 11:40:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-29 14:54:58.376926
- Title: Exposing Paid Opinion Manipulation Trolls
- Title(参考訳): 有能な意見操作の荒らしを露呈する
- Authors: Todor Mihaylov, Ivan Koychev, Georgi Georgiev, Preslav Nakov
- Abstract要約: 機械学習を用いてウェブ上で有償トロルを見つける方法を示す。
本稿では,複数の異なる人々からトロルと呼ばれるユーザがそうである可能性が高いと仮定する。
さらに, (ii) と (iii) を区別するために訓練された分類器が, (iii) と (iii) を区別するために訓練された分類器が, (iii) と (iii) を区別する上でも極めて優れていることを示す。
- 参考スコア(独自算出の注目度): 19.834000431578737
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, Web forums have been invaded by opinion manipulation trolls. Some
trolls try to influence the other users driven by their own convictions, while
in other cases they can be organized and paid, e.g., by a political party or a
PR agency that gives them specific instructions what to write. Finding paid
trolls automatically using machine learning is a hard task, as there is no
enough training data to train a classifier; yet some test data is possible to
obtain, as these trolls are sometimes caught and widely exposed. In this paper,
we solve the training data problem by assuming that a user who is called a
troll by several different people is likely to be such, and one who has never
been called a troll is unlikely to be such. We compare the profiles of (i) paid
trolls vs. (ii)"mentioned" trolls vs. (iii) non-trolls, and we further show
that a classifier trained to distinguish (ii) from (iii) does quite well also
at telling apart (i) from (iii).
- Abstract(参考訳): 近年、Webフォーラムは意見操作のトロルによって侵略されている。
一部のトロルは、自身の有罪判決によって駆動される他のユーザーに影響を及ぼそうとするが、他のケースでは、例えば、特定の指示を与える政党や広報機関によって組織され、支払われることもある。
機械学習を使って自動で有料のトロールを見つけることは難しい作業であり、分類器を訓練するのに十分なトレーニングデータがない。
本稿では,複数の異なる人々からトロルと呼ばれるユーザがそうである可能性が高く,トロルと呼ばれることのないユーザがそうである可能性が低いことを前提として,トレーニングデータ問題を解決する。
プロファイルを比較して
(i)有給トロル vs.
(ii)"メンションド"トロール vs.
(iii)ノントロール、さらに、識別訓練を受けた分類器
(ii)
(iii) 区別も非常に上手です
(i)から
(iii)
関連論文リスト
- Towards Effective Counter-Responses: Aligning Human Preferences with Strategies to Combat Online Trolling [9.598920004159696]
本研究では,異なる種類のトロリング行動に合わせた戦略を人間が好んでいるかを検討する。
本稿では,適切なRSを推奨することでトロルに対する反応答を生成する手法を提案する。
実験の結果,提案手法は建設的議論をガイドし,トロルの負の効果を低減させることを示した。
論文 参考訳(メタデータ) (2024-10-05T14:01:52Z) - QACHECK: A Demonstration System for Question-Guided Multi-Hop
Fact-Checking [68.06355980166053]
本稿では,質問誘導型マルチホップFact-Checking(QACHECK)システムを提案する。
クレームの検証に批判的な一連の質問をすることで、モデルの推論プロセスを導く。
各質問を支持する証拠の源となり、透明で説明可能な、ユーザフレンドリーな事実チェックプロセスが育まれます。
論文 参考訳(メタデータ) (2023-10-11T15:51:53Z) - Fact-Saboteurs: A Taxonomy of Evidence Manipulation Attacks against
Fact-Verification Systems [80.3811072650087]
証拠のクレームサレントスニペットを微調整し,多様かつクレームアラインな証拠を生成することが可能であることを示す。
この攻撃は、主張のポストホックな修正に対しても堅牢である。
これらの攻撃は、インスペクタブルとヒューマン・イン・ザ・ループの使用シナリオに有害な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2022-09-07T13:39:24Z) - Faking Fake News for Real Fake News Detection: Propaganda-loaded
Training Data Generation [105.20743048379387]
提案手法は,人間によるプロパガンダのスタイルや戦略から情報を得た学習例を生成するための新しいフレームワークである。
具体的には、生成した記事の有効性を確保するために、自然言語推論によって導かれる自己臨界シーケンストレーニングを行う。
実験の結果、PropaNewsでトレーニングされた偽ニュース検知器は、2つの公開データセットで3.62~7.69%のF1スコアで人書きの偽情報を検出するのに優れていることがわかった。
論文 参考訳(メタデータ) (2022-03-10T14:24:19Z) - TROLLMAGNIFIER: Detecting State-Sponsored Troll Accounts on Reddit [11.319938541673578]
本稿ではトロルアカウント検出システムであるTROLLMAGNIFIERを提案する。
TROLLMAGNIFIERは、既知のトロルアカウントの典型的な振る舞いを学習し、同じように振舞うものをより特定する。
また,TROLLMAGNIFIERを用いることで,トロルの初期知識を300%以上増加させることができることを示した。
論文 参考訳(メタデータ) (2021-12-01T12:10:24Z) - Sentiment Analysis for Troll Detection on Weibo [6.961253535504979]
中国では、マイクロブログサービスプロバイダであるsina weiboが最も人気のあるサービスである。
世論に影響を与えるために、weibo trollsを雇って偽りのコメントを投稿することができる。
本稿では,感情分析やその他のユーザ行動データによるトロール検出に注目する。
論文 参考訳(メタデータ) (2021-03-07T14:59:12Z) - TrollHunter [Evader]: Automated Detection [Evasion] of Twitter Trolls
During the COVID-19 Pandemic [1.5469452301122175]
TrollHunterは、2020年の新型コロナウイルス(COVID-19)パンデミックでTwitter上でトロルを探すために使われる自動推論メカニズムだ。
新型コロナウイルス(COVID-19)のインフォデミックに対抗するために、TrollHunterは、Twitterの多次元コンテンツ機能のユニークな言語分析を利用している。
TrollHunterは98.5%の精度、75.4%の精度、69.8%のリコールを達成した。
論文 参考訳(メタデータ) (2020-12-04T13:46:42Z) - Backdoor Attack against Speaker Verification [86.43395230456339]
学習データを汚染することにより,話者検証モデルに隠れたバックドアを注入できることを示す。
また,既存のバックドア攻撃が話者認証攻撃に直接適用できないことも実証した。
論文 参考訳(メタデータ) (2020-10-22T11:10:08Z) - Trawling for Trolling: A Dataset [56.1778095945542]
攻撃的コンテンツのサブカテゴリとしてトロリングをモデル化するデータセットを提案する。
データセットには12,490のサンプルがあり、5つのクラスに分かれている。
論文 参考訳(メタデータ) (2020-08-02T17:23:55Z) - Russian trolls speaking Russian: Regional Twitter operations and MH17 [68.8204255655161]
2018年、Twitterはロシアのトロルとして特定されたアカウントのデータを公開した。
我々はこれらのトロルのロシア語操作を分析する。
MH17の事故に関するトロルズの情報キャンペーンは、ツイート数で最大のものだった。
論文 参考訳(メタデータ) (2020-05-13T19:48:12Z) - Detecting Troll Behavior via Inverse Reinforcement Learning: A Case
Study of Russian Trolls in the 2016 US Election [8.332032237125897]
Inverse Reinforcement Learning (IRL) に基づくトロール行動の抽出とトロールアカウントの同定手法を提案する。
調査事例として、2016年アメリカ合衆国大統領選挙におけるロシアの介入疑惑の調査において、米国議会が特定したトロルアカウントについて考察する。
IRLに基づくアプローチでは,トロルアカウントを正確に検出することが可能である。
論文 参考訳(メタデータ) (2020-01-28T19:50:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。