論文の概要: Social Media Bot Policies: Evaluating Passive and Active Enforcement
- arxiv url: http://arxiv.org/abs/2409.18931v1
- Date: Fri, 27 Sep 2024 17:28:25 GMT
- ステータス: 処理完了
- システム内更新日: 2024-10-01 07:51:30.116400
- Title: Social Media Bot Policies: Evaluating Passive and Active Enforcement
- Title(参考訳): ソーシャルメディアボット政策:パッシブ・アクティブ・エンフォースメントの評価
- Authors: Kristina Radivojevic, Christopher McAleer, Catrell Conley, Cormac Kennedy, Paul Brenner,
- Abstract要約: マルチモーダル・ファンデーション・モデル(MFM)は、悪意あるアクターがオンラインユーザーを搾取するのを助長する可能性がある。
我々は、X(元Twitter)、Instagram、Facebook、Threads、TikTok、Mastodon、Reddit、LinkedInの8つのソーシャルメディアプラットフォームにおけるボットとコンテンツポリシーを調査した。
以上の結果から,これらのプラットフォームの現在の実施機構に重大な脆弱性があることが示唆された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The emergence of Multimodal Foundation Models (MFMs) holds significant promise for transforming social media platforms. However, this advancement also introduces substantial security and ethical concerns, as it may facilitate malicious actors in the exploitation of online users. We aim to evaluate the strength of security protocols on prominent social media platforms in mitigating the deployment of MFM bots. We examined the bot and content policies of eight popular social media platforms: X (formerly Twitter), Instagram, Facebook, Threads, TikTok, Mastodon, Reddit, and LinkedIn. Using Selenium, we developed a web bot to test bot deployment and AI-generated content policies and their enforcement mechanisms. Our findings indicate significant vulnerabilities within the current enforcement mechanisms of these platforms. Despite having explicit policies against bot activity, all platforms failed to detect and prevent the operation of our MFM bots. This finding reveals a critical gap in the security measures employed by these social media platforms, underscoring the potential for malicious actors to exploit these weaknesses to disseminate misinformation, commit fraud, or manipulate users.
- Abstract(参考訳): MFM(Multimodal Foundation Models)の出現は、ソーシャルメディアプラットフォームを変革するための大きな約束である。
しかし、この進歩は、オンライン利用者の搾取において悪意あるアクターを促進するため、かなりのセキュリティと倫理上の懸念ももたらしている。
我々は,MFMボットの展開を緩和する上で,ソーシャルメディアプラットフォーム上でのセキュリティプロトコルの強度を評価することを目的とする。
我々は、X(元Twitter)、Instagram、Facebook、Threads、TikTok、Mastodon、Reddit、LinkedInの8つのソーシャルメディアプラットフォームにおけるボットとコンテンツポリシーを調査した。
Seleniumを用いて、ボットの配置とAI生成コンテンツポリシーとその実施メカニズムをテストするウェブボットを開発した。
以上の結果から,これらのプラットフォームの現在の実施機構に重大な脆弱性があることが示唆された。
ボット活動に対する明確なポリシーがあるにも関わらず、すべてのプラットフォームが私たちのFMボットの動作を検知し、防止することができませんでした。
この発見は、これらのソーシャルメディアプラットフォームが採用するセキュリティ対策の重大なギャップを明らかにしており、悪意あるアクターがこれらの弱点を利用して誤報を広めたり、詐欺を犯したり、ユーザーを操ったりできる可能性を強調している。
関連論文リスト
- Entendre, a Social Bot Detection Tool for Niche, Fringe, and Extreme Social Media [1.4913052010438639]
オープンアクセス、スケーラブル、プラットフォームに依存しないボット検出フレームワークであるEntendreを紹介した。
われわれは、ほとんどのソーシャルプラットフォームが一般的なテンプレートを共有しており、ユーザーはコンテンツを投稿し、コンテンツを承認し、バイオを提供することができるという考えを生かしている。
Entendreの有効性を示すために、私たちは、現在定義されている右翼プラットフォームであるParlerに人種差別的コンテンツを投稿するアカウントの中で、ボットの存在を調査するために使用しました。
論文 参考訳(メタデータ) (2024-08-13T13:50:49Z) - Adversarial Botometer: Adversarial Analysis for Social Bot Detection [1.9280536006736573]
ソーシャルボットは人間の創造性を模倣するコンテンツを制作する。
悪意のあるソーシャルボットは、非現実的なコンテンツで人々を騙すようになる。
テキストベースのボット検出器の動作を競合環境下で評価する。
論文 参考訳(メタデータ) (2024-05-03T11:28:21Z) - My Brother Helps Me: Node Injection Based Adversarial Attack on Social Bot Detection [69.99192868521564]
Twitterのようなソーシャルプラットフォームは、数多くの不正なユーザーから包囲されている。
ソーシャルネットワークの構造のため、ほとんどの手法は攻撃を受けやすいグラフニューラルネットワーク(GNN)に基づいている。
本稿では,ボット検出モデルを欺いたノードインジェクションに基づく逆攻撃手法を提案する。
論文 参考訳(メタデータ) (2023-10-11T03:09:48Z) - ManiTweet: A New Benchmark for Identifying Manipulation of News on Social Media [74.93847489218008]
ソーシャルメディア上でのニュースの操作を識別し,ソーシャルメディア投稿の操作を検出し,操作された情報や挿入された情報を特定することを目的とした,新しいタスクを提案する。
この課題を研究するために,データ収集スキーマを提案し,3.6K対のツイートとそれに対応する記事からなるManiTweetと呼ばれるデータセットをキュレートした。
我々の分析では、このタスクは非常に難しいことを示し、大きな言語モデル(LLM)は不満足なパフォーマンスをもたらす。
論文 参考訳(メタデータ) (2023-05-23T16:40:07Z) - Having your Privacy Cake and Eating it Too: Platform-supported Auditing
of Social Media Algorithms for Public Interest [70.02478301291264]
ソーシャルメディアプラットフォームは、情報や機会へのアクセスをキュレートするので、公衆の言論を形成する上で重要な役割を果たす。
これまでの研究では、これらのアルゴリズムが偏見や差別的な結果をもたらすことを示すためにブラックボックス法が用いられてきた。
本稿では,提案法の目標を満たすプラットフォーム支援型監査手法を提案する。
論文 参考訳(メタデータ) (2022-07-18T17:32:35Z) - Identification of Twitter Bots based on an Explainable ML Framework: the
US 2020 Elections Case Study [72.61531092316092]
本稿では,ラベル付きTwitterデータに基づくTwitterボット識別システムの設計に焦点をあてる。
Supervised Machine Learning (ML)フレームワークは、Extreme Gradient Boosting (XGBoost)アルゴリズムを用いて採用されている。
また、MLモデルの予測を説明するためにShapley Additive Explanations (SHAP)をデプロイした。
論文 参考訳(メタデータ) (2021-12-08T14:12:24Z) - Adversarial Socialbot Learning via Multi-Agent Deep Hierarchical
Reinforcement Learning [31.33996447671789]
本稿では、強化学習(RL)などの計算学習機構を利用して、検出を回避しつつ、ソーシャルボットの影響を最大化することができることを示す。
提案するポリシネットワークは,膨大な合成グラフを用いてトレーニングし,目に見えない実生活グラフのベースラインよりも優れた一般化を行う。
これにより,本手法は実環境に展開する際の現実的な敵攻撃となる。
論文 参考訳(メタデータ) (2021-10-20T16:49:26Z) - BotNet Detection On Social Media [0.0]
ソーシャルメディアは、これらのプラットフォームを使って他のユーザーを操作しようとするユーザー(ボット)アカウントにとって、オープンな場となっている。
ボットが選挙結果を操作している証拠は、全国、つまり世界にとって大きな脅威となる可能性がある。
私たちの目標は、セマンティックなWebマイニング技術を活用して、これらの活動に関わる偽のボットやアカウントを特定することです。
論文 参考訳(メタデータ) (2021-10-12T00:38:51Z) - Leveraging Multi-Source Weak Social Supervision for Early Detection of
Fake News [67.53424807783414]
ソーシャルメディアは、人々が前例のない速度でオンライン活動に参加することを可能にする。
この制限のないアクセスは、誤情報や偽ニュースの拡散を悪化させ、その緩和のために早期に検出されない限り混乱と混乱を引き起こす可能性がある。
ソーシャルエンゲージメントからの弱い信号とともに、限られた量のクリーンデータを活用して、メタラーニングフレームワークでディープニューラルネットワークをトレーニングし、さまざまな弱いインスタンスの品質を推定します。
実世界のデータセットの実験では、提案されたフレームワークは、予測時にユーザーエンゲージメントを使わずに、フェイクニュースを早期に検出するための最先端のベースラインを上回っている。
論文 参考訳(メタデータ) (2020-04-03T18:26:33Z) - Quantifying the Vulnerabilities of the Online Public Square to Adversarial Manipulation Tactics [43.98568073610101]
ソーシャルメディアモデルを用いて、コンテンツの品質に対するいくつかの敵の操作戦術の影響を定量化する。
ソーシャルメディアの目印である影響力のあるアカウントの存在は、操作するオンラインコミュニティの脆弱性を悪化させる。
これらの知見は、プラットフォームがソーシャルメディアユーザーによる操作のレジリエンスを高めるために使われる可能性があることを示唆している。
論文 参考訳(メタデータ) (2019-07-13T21:12:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。