論文の概要: Detecting Troll Behavior via Inverse Reinforcement Learning: A Case
Study of Russian Trolls in the 2016 US Election
- arxiv url: http://arxiv.org/abs/2001.10570v3
- Date: Fri, 5 Jun 2020 17:43:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-06 02:59:39.080840
- Title: Detecting Troll Behavior via Inverse Reinforcement Learning: A Case
Study of Russian Trolls in the 2016 US Election
- Title(参考訳): 逆強化学習によるトロール行動の検出:2016年米大統領選におけるロシアトロールの事例
- Authors: Luca Luceri, Silvia Giordano, Emilio Ferrara
- Abstract要約: Inverse Reinforcement Learning (IRL) に基づくトロール行動の抽出とトロールアカウントの同定手法を提案する。
調査事例として、2016年アメリカ合衆国大統領選挙におけるロシアの介入疑惑の調査において、米国議会が特定したトロルアカウントについて考察する。
IRLに基づくアプローチでは,トロルアカウントを正確に検出することが可能である。
- 参考スコア(独自算出の注目度): 8.332032237125897
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Since the 2016 US Presidential election, social media abuse has been
eliciting massive concern in the academic community and beyond. Preventing and
limiting the malicious activity of users, such as trolls and bots, in their
manipulation campaigns is of paramount importance for the integrity of
democracy, public health, and more. However, the automated detection of troll
accounts is an open challenge. In this work, we propose an approach based on
Inverse Reinforcement Learning (IRL) to capture troll behavior and identify
troll accounts. We employ IRL to infer a set of online incentives that may
steer user behavior, which in turn highlights behavioral differences between
troll and non-troll accounts, enabling their accurate classification. As a
study case, we consider the troll accounts identified by the US Congress during
the investigation of Russian meddling in the 2016 US Presidential election. We
report promising results: the IRL-based approach is able to accurately detect
troll accounts (AUC=89.1%). The differences in the predictive features between
the two classes of accounts enables a principled understanding of the
distinctive behaviors reflecting the incentives trolls and non-trolls respond
to.
- Abstract(参考訳): 2016年のアメリカ合衆国大統領選挙以降、ソーシャルメディアの悪用は学術界やその周辺で大きな懸念を招き続けている。
操作キャンペーンにおけるトロルやボットなどの悪意あるユーザーの活動の防止と制限は、民主主義の完全性、公衆衛生などにとって最重要事項である。
しかしながら、トロルアカウントの自動検出は、オープンな課題である。
本稿では,トロールの挙動を捉え,トロールアカウントを識別するための逆強化学習(irl)に基づくアプローチを提案する。
我々はirlを用いてユーザーの行動に影響を及ぼす一連のオンラインインセンティブを推測し、トロルアカウントと非トロールアカウントの行動の違いを強調し、正確な分類を可能にした。
研究ケースとして、2016年アメリカ合衆国大統領選挙におけるロシア疑惑の調査中に、米国議会が特定したトロールアカウントを考察する。
IRLに基づくアプローチでは,トロルアカウントを正確に検出できる(AUC=89.1%)。
2つのアカウント間の予測的特徴の違いは、トロルやノントロールが応答するインセンティブを反映する特徴的行動の原則的理解を可能にする。
関連論文リスト
- Coordinated Reply Attacks in Influence Operations: Characterization and Detection [43.98568073610101]
我々はTwitter上でのインフルエンス操作の文脈において、協調応答攻撃を特徴付ける。
我々の分析によると、これらの攻撃の主なターゲットは、ジャーナリスト、ニュースメディア、州役人、政治家などの影響力のある人々である。
本稿では,2つの教師付き機械学習モデルを提案する。ひとつはツイートを分類し,それらが応答攻撃の対象であるか否かを判断し,もうひとつはターゲットとするツイートに応答するアカウントを分類し,それらが協調攻撃の一部であるかどうかを判断する。
論文 参考訳(メタデータ) (2024-10-25T02:57:08Z) - Towards Effective Counter-Responses: Aligning Human Preferences with Strategies to Combat Online Trolling [9.598920004159696]
本研究では,異なる種類のトロリング行動に合わせた戦略を人間が好んでいるかを検討する。
本稿では,適切なRSを推奨することでトロルに対する反応答を生成する手法を提案する。
実験の結果,提案手法は建設的議論をガイドし,トロルの負の効果を低減させることを示した。
論文 参考訳(メタデータ) (2024-10-05T14:01:52Z) - Russo-Ukrainian War: Prediction and explanation of Twitter suspension [47.61306219245444]
本研究は、Twitterのサスペンション機構と、これにつながる可能性のあるユーザアカウントの共有コンテンツと機能の分析に焦点を当てる。
Twitter APIを使って、980万人のユーザーから生まれた107.7万のツイートを含むデータセットを入手しました。
この結果から、Bitcoin詐欺、スパム、広告キャンペーンに対するロシアとウクライナの紛争に関するトレンドを生かした詐欺キャンペーンが明らかになった。
論文 参考訳(メタデータ) (2023-06-06T08:41:02Z) - Characterizing, Detecting, and Predicting Online Ban Evasion [9.949354222717773]
悪意のあるユーザーは、オンライン禁止を回避するために新しいアカウントを簡単に作成できる。
我々は,オンラインプラットフォーム上での禁止を回避する行為として,禁忌回避に関するデータ駆動研究を初めて実施する。
回避子アカウントは,複数の行動軸上の禁止親アカウントと類似性を示す。
論文 参考訳(メタデータ) (2022-02-10T18:58:19Z) - Identification of Twitter Bots based on an Explainable ML Framework: the
US 2020 Elections Case Study [72.61531092316092]
本稿では,ラベル付きTwitterデータに基づくTwitterボット識別システムの設計に焦点をあてる。
Supervised Machine Learning (ML)フレームワークは、Extreme Gradient Boosting (XGBoost)アルゴリズムを用いて採用されている。
また、MLモデルの予測を説明するためにShapley Additive Explanations (SHAP)をデプロイした。
論文 参考訳(メタデータ) (2021-12-08T14:12:24Z) - TROLLMAGNIFIER: Detecting State-Sponsored Troll Accounts on Reddit [11.319938541673578]
本稿ではトロルアカウント検出システムであるTROLLMAGNIFIERを提案する。
TROLLMAGNIFIERは、既知のトロルアカウントの典型的な振る舞いを学習し、同じように振舞うものをより特定する。
また,TROLLMAGNIFIERを用いることで,トロルの初期知識を300%以上増加させることができることを示した。
論文 参考訳(メタデータ) (2021-12-01T12:10:24Z) - Exposing Paid Opinion Manipulation Trolls [19.834000431578737]
機械学習を用いてウェブ上で有償トロルを見つける方法を示す。
本稿では,複数の異なる人々からトロルと呼ばれるユーザがそうである可能性が高いと仮定する。
さらに, (ii) と (iii) を区別するために訓練された分類器が, (iii) と (iii) を区別するために訓練された分類器が, (iii) と (iii) を区別する上でも極めて優れていることを示す。
論文 参考訳(メタデータ) (2021-09-26T11:40:14Z) - News consumption and social media regulations policy [70.31753171707005]
我々は、ニュース消費とコンテンツ規制の間の相互作用を評価するために、反対のモデレーション手法であるTwitterとGabを強制した2つのソーシャルメディアを分析した。
以上の結果から,Twitterが追求するモデレーションの存在は,疑わしいコンテンツを著しく減少させることがわかった。
Gabに対する明確な規制の欠如は、ユーザが両方のタイプのコンテンツを扱う傾向を生じさせ、ディスカウント/エンドレスメントの振る舞いを考慮に入れた疑わしいコンテンツに対してわずかに好みを示す。
論文 参考訳(メタデータ) (2021-06-07T19:26:32Z) - TrollHunter2020: Real-Time Detection of Trolling Narratives on Twitter
During the 2020 US Elections [1.5469452301122175]
TrollHunter2020は、2020年のアメリカ合衆国大統領選挙でTwitter上でトロリングの物語をリアルタイムに検出するメカニズムである。
われわれはTrollHunter 2020が、展開する偏光イベントのごく初期段階で、出現するトロリングの物語を実際に捉えていることを示唆している。
論文 参考訳(メタデータ) (2020-12-04T14:03:06Z) - Causal Understanding of Fake News Dissemination on Social Media [50.4854427067898]
我々は、ユーザーがフェイクニュースを共有するのに、ユーザー属性が何をもたらすかを理解することが重要だと論じている。
偽ニュース拡散において、共同創設者は、本質的にユーザー属性やオンライン活動に関連する偽ニュース共有行動によって特徴づけられる。
本稿では,偽ニュース拡散における選択バイアスを軽減するための原則的アプローチを提案する。
論文 参考訳(メタデータ) (2020-10-20T19:37:04Z) - Russian trolls speaking Russian: Regional Twitter operations and MH17 [68.8204255655161]
2018年、Twitterはロシアのトロルとして特定されたアカウントのデータを公開した。
我々はこれらのトロルのロシア語操作を分析する。
MH17の事故に関するトロルズの情報キャンペーンは、ツイート数で最大のものだった。
論文 参考訳(メタデータ) (2020-05-13T19:48:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。