論文の概要: Leveraging Large Language Models to Detect Influence Campaigns in Social
Media
- arxiv url: http://arxiv.org/abs/2311.07816v1
- Date: Tue, 14 Nov 2023 00:25:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-15 15:55:02.863568
- Title: Leveraging Large Language Models to Detect Influence Campaigns in Social
Media
- Title(参考訳): 大規模言語モデルの活用によるソーシャルメディアへの影響評価
- Authors: Luca Luceri, Eric Boniardi, Emilio Ferrara
- Abstract要約: ソーシャルメディアの影響は、大衆の言論や民主主義に重大な課題をもたらしている。
従来の検出方法は、ソーシャルメディアの複雑さとダイナミックな性質のために不足している。
本稿では,ユーザメタデータとネットワーク構造の両方を組み込んだLarge Language Models (LLM) を用いた新しい検出手法を提案する。
- 参考スコア(独自算出の注目度): 9.58546889761175
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Social media influence campaigns pose significant challenges to public
discourse and democracy. Traditional detection methods fall short due to the
complexity and dynamic nature of social media. Addressing this, we propose a
novel detection method using Large Language Models (LLMs) that incorporates
both user metadata and network structures. By converting these elements into a
text format, our approach effectively processes multilingual content and adapts
to the shifting tactics of malicious campaign actors. We validate our model
through rigorous testing on multiple datasets, showcasing its superior
performance in identifying influence efforts. This research not only offers a
powerful tool for detecting campaigns, but also sets the stage for future
enhancements to keep up with the fast-paced evolution of social media-based
influence tactics.
- Abstract(参考訳): ソーシャルメディアの影響は、大衆の言論や民主主義に重大な課題をもたらす。
従来の検出方法は、ソーシャルメディアの複雑さとダイナミックな性質のために不足している。
そこで我々は,ユーザメタデータとネットワーク構造の両方を組み込んだLarge Language Models (LLM) を用いた新しい検出手法を提案する。
これらの要素をテキスト形式に変換することにより,多言語コンテンツを効果的に処理し,悪意のあるキャンペーンアクタの戦術に適応する。
複数のデータセットで厳密なテストを行い、影響の特定において優れたパフォーマンスを示すことによって、モデルを検証する。
この研究は、キャンペーンを検出する強力なツールを提供するだけでなく、ソーシャルメディアベースの影響力戦略の急激な進化に対応するための将来の強化のステージも設定している。
関連論文リスト
- Unveiling the Truth and Facilitating Change: Towards Agent-based
Large-scale Social Movement Simulation [48.84837269991905]
ソーシャルメディアは社会運動の基盤として現れ、社会変革の推進に大きな影響を与えている。
ソーシャルメディアユーザシミュレーションのためのハイブリッドフレームワークを導入し、ユーザを2つのタイプに分類する。
我々は、トリガーイベントに続く応答ダイナミクスを再現するために、Twitterのような環境を構築します。
論文 参考訳(メタデータ) (2024-02-26T06:28:54Z) - MetaHate: A Dataset for Unifying Efforts on Hate Speech Detection [2.433983268807517]
ヘイトスピーチは、標的となる個人やコミュニティに対して、社会的、心理的、時には身体的脅威を生じさせる。
この現象に対処するための現在の計算言語学的アプローチは、トレーニングのためのラベル付きソーシャルメディアデータセットに依存している。
我々は60以上のデータセットを精査し、その関連するものをMetaHateに選択的に統合しました。
我々の発見は、既存のデータセットのより深い理解に寄与し、より堅牢で適応可能なモデルをトレーニングするための道を開いた。
論文 参考訳(メタデータ) (2024-01-12T11:54:53Z) - ManiTweet: A New Benchmark for Identifying Manipulation of News on
Social Media [53.51665032295087]
ソーシャルメディア上でのニュースの操作を識別し,ソーシャルメディア投稿の操作を検出し,操作された情報や挿入された情報を特定することを目的とした,新しいタスクを提案する。
この課題を研究するために,データ収集スキーマを提案し,3.6K対のツイートとそれに対応する記事からなるManiTweetと呼ばれるデータセットをキュレートした。
我々の分析では、このタスクは非常に難しいことを示し、大きな言語モデル(LLM)は不満足なパフォーマンスをもたらす。
論文 参考訳(メタデータ) (2023-05-23T16:40:07Z) - Countering Malicious Content Moderation Evasion in Online Social
Networks: Simulation and Detection of Word Camouflage [64.78260098263489]
ツイストとカモフラージュキーワードは、プラットフォームコンテンツモデレーションシステムを回避する最もよく使われるテクニックである。
本稿では,コンテンツ回避の新たな手法をシミュレートし,検出する多言語ツールを開発することにより,悪意ある情報に対する対処に大きく貢献する。
論文 参考訳(メタデータ) (2022-12-27T16:08:49Z) - Exposing Influence Campaigns in the Age of LLMs: A Behavioral-Based AI
Approach to Detecting State-Sponsored Trolls [8.202465737306222]
ソーシャルメディア上で影響力のあるキャンペーンで活動している国家スポンサーのトロルの検出は、批判的で未解決の課題である。
我々は,共有活動のシーケンスに関連付けられた行動的手がかりのみでトロルアカウントを識別する,AIベースの新しいソリューションを提案する。
論文 参考訳(メタデータ) (2022-10-17T07:01:17Z) - Panning for gold: Lessons learned from the platform-agnostic automated
detection of political content in textual data [48.7576911714538]
異なるプラットフォーム間で政治的コンテンツを検出するために、これらの技術がどのように使用できるかについて議論する。
辞書,教師付き機械学習,ニューラルネットワークに依存する3つの検出手法のパフォーマンスを比較した。
この結果から,ニューラルネットワークと機械学習に基づくモデルによって達成されるノイズの少ないデータに対して,事前処理がモデル性能に与える影響が限定された。
論文 参考訳(メタデータ) (2022-07-01T15:23:23Z) - Ranking Micro-Influencers: a Novel Multi-Task Learning and Interpretable
Framework [69.5850969606885]
マルチメディアコンテンツに基づくマイクロインフルエンサーランキングにおける技術状況を改善するための,新しいマルチタスク学習フレームワークを提案する。
精度とモデルの複雑さの両面で大きな改善が見られた。
この研究で提示されるランキングと解釈のテクニックは、任意のマルチメディアランキングタスクに一般化することができる。
論文 参考訳(メタデータ) (2021-07-29T13:04:25Z) - Multimodal Emergent Fake News Detection via Meta Neural Process Networks [36.52739834391597]
本稿では,MetaFENDというフェイクニュース検出フレームワークを提案する。
具体的には、メタラーニングとニューラルプロセスの手法を統合したモデルを提案する。
TwitterとWeiboから収集したマルチメディアデータセットに対して、大規模な実験が行われた。
論文 参考訳(メタデータ) (2021-06-22T21:21:29Z) - Multimodal Categorization of Crisis Events in Social Media [81.07061295887172]
本稿では,画像とテキストの両方を入力として利用するマルチモーダル融合法を提案する。
特に、弱モダリティから非形式的および誤解を招くコンポーネントをフィルタリングできるクロスアテンションモジュールを導入する。
本手法は,3つの危機関連タスクにおいて,一様アプローチと強いマルチモーダルベースラインを大きなマージンで上回ることを示す。
論文 参考訳(メタデータ) (2020-04-10T06:31:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。