論文の概要: Keeping it Authentic: The Social Footprint of the Trolls Network
- arxiv url: http://arxiv.org/abs/2409.07720v1
- Date: Thu, 12 Sep 2024 03:02:52 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-15 16:28:34.514854
- Title: Keeping it Authentic: The Social Footprint of the Trolls Network
- Title(参考訳): Trolls Networkのソーシャル・フットプリント
- Authors: Ori Swed, Sachith Dassanayaka, Dimitri Volchenkov,
- Abstract要約: 2016年、ロシアの工作員によってアニメーション化されたソーシャルメディアアカウントのネットワークは、大統領選挙に関するアメリカ国民の政治的議論を分散させようとした。
我々は、正当な社会的アクターのふりをして、ネットワークは社会的期待に従わなければならないと主張している。
この社会的フットプリントの堅牢性をテストするために、人工知能を訓練してそれを特定し、予測モデルを作成します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In 2016, a network of social media accounts animated by Russian operatives attempted to divert political discourse within the American public around the presidential elections. This was a coordinated effort, part of a Russian-led complex information operation. Utilizing the anonymity and outreach of social media platforms Russian operatives created an online astroturf that is in direct contact with regular Americans, promoting Russian agenda and goals. The elusiveness of this type of adversarial approach rendered security agencies helpless, stressing the unique challenges this type of intervention presents. Building on existing scholarship on the functions within influence networks on social media, we suggest a new approach to map those types of operations. We argue that pretending to be legitimate social actors obliges the network to adhere to social expectations, leaving a social footprint. To test the robustness of this social footprint we train artificial intelligence to identify it and create a predictive model. We use Twitter data identified as part of the Russian influence network for training the artificial intelligence and to test the prediction. Our model attains 88% prediction accuracy for the test set. Testing our prediction on two additional models results in 90.7% and 90.5% accuracy, validating our model. The predictive and validation results suggest that building a machine learning model around social functions within the Russian influence network can be used to map its actors and functions.
- Abstract(参考訳): 2016年、ロシアの工作員によってアニメーション化されたソーシャルメディアアカウントのネットワークは、大統領選挙に関するアメリカ国民の政治的議論を分散させようとした。
これはロシア主導の複雑な情報処理の一部として協調的な作業であった。
ソーシャルメディアプラットフォームの匿名性とアウトリーチを活用して、ロシアの諜報員は通常のアメリカ人と直接接触し、ロシアのアジェンダと目標を促進するオンラインのアストロトゥルフを作った。
この種の敵対的アプローチの解明は、セキュリティ機関を無力化させ、この種の介入がもたらす固有の課題を強調した。
ソーシャルメディア上でのインフルエンスネットワークの機能に関する既存の奨学金に基づいて,このようなタイプの運用をマップする新たなアプローチを提案する。
我々は、正当な社会的アクターのふりをすると、ネットワークは社会的期待に従わざるを得ず、社会的フットプリントを残していると論じる。
この社会的フットプリントの堅牢性をテストするために、人工知能を訓練してそれを特定し、予測モデルを作成します。
我々は、人工知能を訓練し、予測をテストするために、ロシアの影響力ネットワークの一部として特定されたTwitterデータを使用します。
我々のモデルは、テストセットの88%の精度で予測できる。
2つの追加モデルで予測をテストすると、90.7%と90.5%の精度が得られ、モデルの妥当性が検証される。
予測と検証の結果は、ロシアの影響ネットワーク内の社会的機能を中心とした機械学習モデルの構築が、アクターと関数のマッピングに利用できることを示唆している。
関連論文リスト
- Mapping the Russian Internet Troll Network on Twitter using a Predictive Model [0.0]
ロシアのインターネットトロルは偽のペルソナを使って、複数のソーシャルメディアストリームを通じて偽情報を拡散している。
ネットワーク操作をマップする予測モデルを作成します。
我々のモデルは、テストセットの88%の精度で予測できる。
論文 参考訳(メタデータ) (2024-09-11T19:09:21Z) - Decoding the Silent Majority: Inducing Belief Augmented Social Graph
with Large Language Model for Response Forecasting [74.68371461260946]
SocialSenseは、既存のソーシャルネットワーク上に信念中心のグラフを誘導するフレームワークであり、グラフベースの伝播によって社会的ダイナミクスを捉える。
本手法は,ゼロショット設定と教師あり設定の両方に対する実験的な評価において,既存の最先端技術を超えている。
論文 参考訳(メタデータ) (2023-10-20T06:17:02Z) - Design and analysis of tweet-based election models for the 2021 Mexican
legislative election [55.41644538483948]
選挙日前の6ヶ月の間に、1500万件の選挙関連ツイートのデータセットを使用します。
地理的属性を持つデータを用いたモデルが従来のポーリング法よりも精度と精度で選挙結果を決定することがわかった。
論文 参考訳(メタデータ) (2023-01-02T12:40:05Z) - Trust and Believe -- Should We? Evaluating the Trustworthiness of
Twitter Users [5.695742189917657]
ソーシャルメディア上のフェイクニュースは、個人と社会の両方に悪影響を及ぼす大きな問題である。
この作業において、私たちは、ソーシャルネットワークコミュニティに信頼を喚起するソリューションを提供したいと考えている。
本モデルでは,Twitter上で5万人の政治家の行動を分析し,評価されたユーザ毎に影響スコアを割り当てる。
論文 参考訳(メタデータ) (2022-10-27T06:57:19Z) - Identification of Twitter Bots based on an Explainable ML Framework: the
US 2020 Elections Case Study [72.61531092316092]
本稿では,ラベル付きTwitterデータに基づくTwitterボット識別システムの設計に焦点をあてる。
Supervised Machine Learning (ML)フレームワークは、Extreme Gradient Boosting (XGBoost)アルゴリズムを用いて採用されている。
また、MLモデルの予測を説明するためにShapley Additive Explanations (SHAP)をデプロイした。
論文 参考訳(メタデータ) (2021-12-08T14:12:24Z) - Adversarial Socialbot Learning via Multi-Agent Deep Hierarchical
Reinforcement Learning [31.33996447671789]
本稿では、強化学習(RL)などの計算学習機構を利用して、検出を回避しつつ、ソーシャルボットの影響を最大化することができることを示す。
提案するポリシネットワークは,膨大な合成グラフを用いてトレーニングし,目に見えない実生活グラフのベースラインよりも優れた一般化を行う。
これにより,本手法は実環境に展開する際の現実的な敵攻撃となる。
論文 参考訳(メタデータ) (2021-10-20T16:49:26Z) - Are socially-aware trajectory prediction models really socially-aware? [75.36961426916639]
我々は,予測モデルの社会的理解を評価するために,社会的に意図された攻撃を導入する。
攻撃は、予測器を失敗させるため、小さなが慎重に構成された摂動である。
我々の攻撃は、最先端モデルの社会的理解を高めるために有効であることを示す。
論文 参考訳(メタデータ) (2021-08-24T17:59:09Z) - Can You be More Social? Injecting Politeness and Positivity into
Task-Oriented Conversational Agents [60.27066549589362]
人間エージェントが使用する社会言語は、ユーザーの応答性の向上とタスク完了に関連しています。
このモデルは、ソーシャル言語理解要素で拡張されたシーケンスからシーケンスまでのディープラーニングアーキテクチャを使用する。
人的判断と自動言語尺度の両方を用いたコンテンツ保存と社会言語レベルの評価は,エージェントがより社会的に適切な方法でユーザの問題に対処できる応答を生成できることを示している。
論文 参考訳(メタデータ) (2020-12-29T08:22:48Z) - Automatic Detection of Influential Actors in Disinformation Networks [0.0]
本稿では,偽情報物語やネットワーク,影響力あるアクターの検出を自動化するためのエンドツーエンドフレームワークを提案する。
システムは精度96%、リコール79%、PR曲線96%のIOアカウントを検出する。
結果は、米国議会の報告書、調査ジャーナリズム、Twitterが提供するIOデータセットからの、既知のIOアカウントの独立したソースと相関している。
論文 参考訳(メタデータ) (2020-05-21T20:15:51Z) - I Know Where You Are Coming From: On the Impact of Social Media Sources
on AI Model Performance [79.05613148641018]
我々は、異なるソーシャルネットワークのマルチモーダルデータから学習する際、異なる機械学習モデルの性能について検討する。
最初の実験結果から,ソーシャルネットワークの選択がパフォーマンスに影響を及ぼすことが明らかとなった。
論文 参考訳(メタデータ) (2020-02-05T11:10:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。