論文の概要: TROLLMAGNIFIER: Detecting State-Sponsored Troll Accounts on Reddit
- arxiv url: http://arxiv.org/abs/2112.00443v1
- Date: Wed, 1 Dec 2021 12:10:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-06 04:51:54.994885
- Title: TROLLMAGNIFIER: Detecting State-Sponsored Troll Accounts on Reddit
- Title(参考訳): TROLLMAGNIFIER:Redditで国家支援のトロルアカウントを検出する
- Authors: Mohammad Hammas Saeed and Shiza Ali and Jeremy Blackburn and Emiliano
De Cristofaro and Savvas Zannettou and Gianluca Stringhini
- Abstract要約: 本稿ではトロルアカウント検出システムであるTROLLMAGNIFIERを提案する。
TROLLMAGNIFIERは、既知のトロルアカウントの典型的な振る舞いを学習し、同じように振舞うものをより特定する。
また,TROLLMAGNIFIERを用いることで,トロルの初期知識を300%以上増加させることができることを示した。
- 参考スコア(独自算出の注目度): 11.319938541673578
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Growing evidence points to recurring influence campaigns on social media,
often sponsored by state actors aiming to manipulate public opinion on
sensitive political topics. Typically, campaigns are performed through
instrumented accounts, known as troll accounts; despite their prominence,
however, little work has been done to detect these accounts in the wild. In
this paper, we present TROLLMAGNIFIER, a detection system for troll accounts.
Our key observation, based on analysis of known Russian-sponsored troll
accounts identified by Reddit, is that they show loose coordination, often
interacting with each other to further specific narratives. Therefore, troll
accounts controlled by the same actor often show similarities that can be
leveraged for detection. TROLLMAGNIFIER learns the typical behavior of known
troll accounts and identifies more that behave similarly. We train
TROLLMAGNIFIER on a set of 335 known troll accounts and run it on a large
dataset of Reddit accounts. Our system identifies 1,248 potential troll
accounts; we then provide a multi-faceted analysis to corroborate the
correctness of our classification. In particular, 66% of the detected accounts
show signs of being instrumented by malicious actors (e.g., they were created
on the same exact day as a known troll, they have since been suspended by
Reddit, etc.). They also discuss similar topics as the known troll accounts and
exhibit temporal synchronization in their activity. Overall, we show that using
TROLLMAGNIFIER, one can grow the initial knowledge of potential trolls provided
by Reddit by over 300%.
- Abstract(参考訳): ソーシャルメディア上の影響力のあるキャンペーンが繰り返されていることを示す証拠が増加しており、しばしば機密性の高い政治的話題に関する世論を操ろうとする州立俳優が後援している。
通常、キャンペーンはトロルアカウントと呼ばれる計器口座を通じて行われるが、その名声にもかかわらず、これらのアカウントを野生で検出する作業はほとんど行われていない。
本稿では,トロルアカウント検出システムであるTROLLMAGNIFIERを提案する。
Redditが特定したロシアのトロルアカウントの分析に基づく我々の重要な観察は、彼らが緩やかに協調し、しばしば特定の物語のために互いに交流していることを示している。
したがって、同じアクターによって制御されるトロルアカウントは、検出に利用できる類似性を示すことが多い。
TROLLMAGNIFIERは、既知のトロルアカウントの典型的な振る舞いを学習し、同じように振舞うものをより特定する。
335の既知のトロルアカウントでTROLLMAGNIFIERをトレーニングし、Redditアカウントの大規模なデータセット上で実行します。
本システムでは,1,248個のトロルアカウントを同定し,分類の正しさを裏付ける多面解析を行う。
特に、検出されたアカウントの66%は悪意のあるアクターによって計測された兆候を示している(例えば、それらは既知のトロルと同じ日に作られ、その後Redditなどで停止された)。
彼らはまた、既知のトロルアカウントと同様のトピックについて議論し、彼らの活動に時間的同期を示す。
全体として、TROLLMAGNIFIERを使用することで、Redditが提供するトロルの潜在的な知識を300%以上増加させることができる。
関連論文リスト
- Coordinated Reply Attacks in Influence Operations: Characterization and Detection [43.98568073610101]
我々はTwitter上でのインフルエンス操作の文脈において、協調応答攻撃を特徴付ける。
我々の分析によると、これらの攻撃の主なターゲットは、ジャーナリスト、ニュースメディア、州役人、政治家などの影響力のある人々である。
本稿では,2つの教師付き機械学習モデルを提案する。ひとつはツイートを分類し,それらが応答攻撃の対象であるか否かを判断し,もうひとつはターゲットとするツイートに応答するアカウントを分類し,それらが協調攻撃の一部であるかどうかを判断する。
論文 参考訳(メタデータ) (2024-10-25T02:57:08Z) - Russo-Ukrainian War: Prediction and explanation of Twitter suspension [47.61306219245444]
本研究は、Twitterのサスペンション機構と、これにつながる可能性のあるユーザアカウントの共有コンテンツと機能の分析に焦点を当てる。
Twitter APIを使って、980万人のユーザーから生まれた107.7万のツイートを含むデータセットを入手しました。
この結果から、Bitcoin詐欺、スパム、広告キャンペーンに対するロシアとウクライナの紛争に関するトレンドを生かした詐欺キャンペーンが明らかになった。
論文 参考訳(メタデータ) (2023-06-06T08:41:02Z) - Fact-Saboteurs: A Taxonomy of Evidence Manipulation Attacks against
Fact-Verification Systems [80.3811072650087]
証拠のクレームサレントスニペットを微調整し,多様かつクレームアラインな証拠を生成することが可能であることを示す。
この攻撃は、主張のポストホックな修正に対しても堅牢である。
これらの攻撃は、インスペクタブルとヒューマン・イン・ザ・ループの使用シナリオに有害な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2022-09-07T13:39:24Z) - DISARM: Detecting the Victims Targeted by Harmful Memes [49.12165815990115]
DISARMは、有害なミームを検出するために名前付きエンティティ認識と個人識別を使用するフレームワークである。
DISARMは10の単一モーダル・マルチモーダルシステムより著しく優れていることを示す。
複数の強力なマルチモーダルライバルに対して、有害なターゲット識別の相対誤差率を最大9ポイントまで下げることができる。
論文 参考訳(メタデータ) (2022-05-11T19:14:26Z) - Characterizing, Detecting, and Predicting Online Ban Evasion [9.949354222717773]
悪意のあるユーザーは、オンライン禁止を回避するために新しいアカウントを簡単に作成できる。
我々は,オンラインプラットフォーム上での禁止を回避する行為として,禁忌回避に関するデータ駆動研究を初めて実施する。
回避子アカウントは,複数の行動軸上の禁止親アカウントと類似性を示す。
論文 参考訳(メタデータ) (2022-02-10T18:58:19Z) - Uncovering the Dark Side of Telegram: Fakes, Clones, Scams, and
Conspiracy Movements [67.39353554498636]
我々は35,382の異なるチャンネルと130,000,000以上のメッセージを収集して,Telegramの大規模解析を行う。
カードなどのダークウェブのプライバシー保護サービスにも、悪名高い活動がいくつかある。
疑似チャネルを86%の精度で識別できる機械学習モデルを提案する。
論文 参考訳(メタデータ) (2021-11-26T14:53:31Z) - Exposing Paid Opinion Manipulation Trolls [19.834000431578737]
機械学習を用いてウェブ上で有償トロルを見つける方法を示す。
本稿では,複数の異なる人々からトロルと呼ばれるユーザがそうである可能性が高いと仮定する。
さらに, (ii) と (iii) を区別するために訓練された分類器が, (iii) と (iii) を区別するために訓練された分類器が, (iii) と (iii) を区別する上でも極めて優れていることを示す。
論文 参考訳(メタデータ) (2021-09-26T11:40:14Z) - Sentiment Analysis for Troll Detection on Weibo [6.961253535504979]
中国では、マイクロブログサービスプロバイダであるsina weiboが最も人気のあるサービスである。
世論に影響を与えるために、weibo trollsを雇って偽りのコメントを投稿することができる。
本稿では,感情分析やその他のユーザ行動データによるトロール検出に注目する。
論文 参考訳(メタデータ) (2021-03-07T14:59:12Z) - TrollHunter [Evader]: Automated Detection [Evasion] of Twitter Trolls
During the COVID-19 Pandemic [1.5469452301122175]
TrollHunterは、2020年の新型コロナウイルス(COVID-19)パンデミックでTwitter上でトロルを探すために使われる自動推論メカニズムだ。
新型コロナウイルス(COVID-19)のインフォデミックに対抗するために、TrollHunterは、Twitterの多次元コンテンツ機能のユニークな言語分析を利用している。
TrollHunterは98.5%の精度、75.4%の精度、69.8%のリコールを達成した。
論文 参考訳(メタデータ) (2020-12-04T13:46:42Z) - Russian trolls speaking Russian: Regional Twitter operations and MH17 [68.8204255655161]
2018年、Twitterはロシアのトロルとして特定されたアカウントのデータを公開した。
我々はこれらのトロルのロシア語操作を分析する。
MH17の事故に関するトロルズの情報キャンペーンは、ツイート数で最大のものだった。
論文 参考訳(メタデータ) (2020-05-13T19:48:12Z) - Detecting Troll Behavior via Inverse Reinforcement Learning: A Case
Study of Russian Trolls in the 2016 US Election [8.332032237125897]
Inverse Reinforcement Learning (IRL) に基づくトロール行動の抽出とトロールアカウントの同定手法を提案する。
調査事例として、2016年アメリカ合衆国大統領選挙におけるロシアの介入疑惑の調査において、米国議会が特定したトロルアカウントについて考察する。
IRLに基づくアプローチでは,トロルアカウントを正確に検出することが可能である。
論文 参考訳(メタデータ) (2020-01-28T19:50:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。