論文の概要: Anatomy of an AI-powered malicious social botnet
- arxiv url: http://arxiv.org/abs/2307.16336v1
- Date: Sun, 30 Jul 2023 23:06:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-01 16:18:06.680272
- Title: Anatomy of an AI-powered malicious social botnet
- Title(参考訳): AIを利用した悪質なソーシャルボットネットの解剖
- Authors: Kai-Cheng Yang and Filippo Menczer
- Abstract要約: 本稿では,ChatGPTを用いて人間的なコンテンツを生成するTwitterボットネットについて述べる。
1,140のアカウントを識別し,手動のアノテーションで検証する。
ChatGPTが生成したコンテンツは不審なウェブサイトを促進し、有害なコメントを広める。
- 参考スコア(独自算出の注目度): 6.147741269183294
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) exhibit impressive capabilities in generating
realistic text across diverse subjects. Concerns have been raised that they
could be utilized to produce fake content with a deceptive intention, although
evidence thus far remains anecdotal. This paper presents a case study about a
Twitter botnet that appears to employ ChatGPT to generate human-like content.
Through heuristics, we identify 1,140 accounts and validate them via manual
annotation. These accounts form a dense cluster of fake personas that exhibit
similar behaviors, including posting machine-generated content and stolen
images, and engage with each other through replies and retweets.
ChatGPT-generated content promotes suspicious websites and spreads harmful
comments. While the accounts in the AI botnet can be detected through their
coordination patterns, current state-of-the-art LLM content classifiers fail to
discriminate between them and human accounts in the wild. These findings
highlight the threats posed by AI-enabled social bots.
- Abstract(参考訳): 大規模言語モデル(LLM)は、多様な主題にまたがる現実的なテキストを生成する優れた能力を示す。
偽コンテンツは偽の意図で作り出せるのではないかという懸念が持ち上がっているが、これまでのところ証拠はいまだに残されている。
本稿では、ChatGPTを用いて人間的なコンテンツを生成するTwitterボットネットのケーススタディを提案する。
ヒューリスティックスによって1,140のアカウントを特定し,手動アノテーションで検証する。
これらのアカウントは偽のペルソナの密集した集団を形成し、マシンが生成したコンテンツや盗まれた画像を投稿し、返信やリツイートを通じて互いに関わり合います。
ChatGPTが生成したコンテンツは不審なウェブサイトを促進し、有害なコメントを広める。
AIボットネットのアカウントは、調整パターンを通じて検出できるが、現在の最先端のLLMコンテンツ分類器は、野生の人間のアカウントと区別できない。
これらの発見は、AI対応のソーシャルボットによる脅威を浮き彫りにしている。
関連論文リスト
- AbuseGPT: Abuse of Generative AI ChatBots to Create Smishing Campaigns [0.0]
本稿では,既存のAIベースのチャットボットが現実世界の攻撃者によってどのように悪用され,スマイシングテキストを作成するかを示すために,AbuseGPT法を提案する。
我々は、攻撃者が既存の生成AIベースのチャットボットサービスの倫理的基準を活用できることを示す強力な実証的証拠を発見した。
また、生成AIベースのサービスの不正行為を保護するための今後の研究方針やガイドラインについても論じる。
論文 参考訳(メタデータ) (2024-02-15T05:49:22Z) - Understanding writing style in social media with a supervised
contrastively pre-trained transformer [57.48690310135374]
オンラインソーシャルネットワークは、ヘイトスピーチから偽情報の拡散まで、有害な行動の場として機能している。
本稿では, 4.5 x 106テキストの公開資料から得られた大規模コーパスに基づいて学習したStyle Transformer for Authorship Representations (STAR)を紹介する。
512個のトークンからなる8つのドキュメントからなるサポートベースを使用して、著者を最大1616人の著者のセットから、少なくとも80%の精度で識別することができる。
論文 参考訳(メタデータ) (2023-10-17T09:01:17Z) - Bot or Human? Detecting ChatGPT Imposters with A Single Question [20.72291342225339]
ChatGPTのような大規模な言語モデルは、最近、自然言語の理解と生成において印象的な能力を示した。
不正行為やサービス拒否攻撃など、悪意のある目的のために悪用される可能性があるという懸念がある。
本研究では,対話型ボットをオンラインで検出するためのフレームワークFLAIR, Finding Large Language Model Authenticityを提案する。
論文 参考訳(メタデータ) (2023-05-10T19:09:24Z) - Seeing is not always believing: Benchmarking Human and Model Perception
of AI-Generated Images [66.20578637253831]
人工知能(AI)技術の進歩が偽写真を生み出すのではないかという懸念が高まっている。
本研究の目的は、最先端のAI生成視覚コンテンツを識別するためのエージェントを包括的に評価することである。
論文 参考訳(メタデータ) (2023-04-25T17:51:59Z) - From Online Behaviours to Images: A Novel Approach to Social Bot
Detection [0.3867363075280544]
特定のタイプの社会アカウントは、要求できないコンテンツ、過党派、宣伝的な情報を促進することが知られている。
まず、アカウントが実行するアクションのシーケンスを画像に変換する新しいアルゴリズムを提案する。
文献でよく知られた実際のアカウント/ボットアカウントデータセット上でのボット検出の最先端結果と比較する。
論文 参考訳(メタデータ) (2023-04-15T11:36:50Z) - Can AI-Generated Text be Reliably Detected? [54.670136179857344]
LLMの規制されていない使用は、盗作、偽ニュースの生成、スパムなど、悪意のある結果をもたらす可能性がある。
最近の研究は、生成されたテキスト出力に存在する特定のモデルシグネチャを使用するか、透かし技術を適用してこの問題に対処しようとしている。
本稿では,これらの検出器は実用シナリオにおいて信頼性が低いことを示す。
論文 参考訳(メタデータ) (2023-03-17T17:53:19Z) - Verifying the Robustness of Automatic Credibility Assessment [79.08422736721764]
テキスト分類法は信頼性の低い内容を検出する手段として広く研究されている。
入力テキストの無意味な変更は、モデルを誤解させることがある。
偽情報検出タスクにおける被害者モデルと攻撃方法の両方をテストするベンチマークであるBODEGAを紹介する。
論文 参考訳(メタデータ) (2023-03-14T16:11:47Z) - Identification of Twitter Bots based on an Explainable ML Framework: the
US 2020 Elections Case Study [72.61531092316092]
本稿では,ラベル付きTwitterデータに基づくTwitterボット識別システムの設計に焦点をあてる。
Supervised Machine Learning (ML)フレームワークは、Extreme Gradient Boosting (XGBoost)アルゴリズムを用いて採用されている。
また、MLモデルの予測を説明するためにShapley Additive Explanations (SHAP)をデプロイした。
論文 参考訳(メタデータ) (2021-12-08T14:12:24Z) - TweepFake: about Detecting Deepfake Tweets [3.3482093430607254]
ディープニューラルモデルは、コヒーレントで非自明で人間のようなテキストサンプルを生成することができる。
ソーシャルボットは、公開討論を汚染することを望んで、もっともらしいディープフェイクメッセージを書くことができる。
私たちは、本物のディープフェイクツイートの最初のデータセット、TweepFakeを収集します。
論文 参考訳(メタデータ) (2020-07-31T19:01:13Z) - Detection of Novel Social Bots by Ensembles of Specialized Classifiers [60.63582690037839]
悪意ある俳優は、社会ボットとして知られるアルゴリズムによって部分的に制御される不正なソーシャルメディアアカウントを作成し、誤情報を広め、オンラインでの議論を扇動する。
異なるタイプのボットが、異なる行動特徴によって特徴づけられることを示す。
本稿では,ボットのクラスごとに専門的な分類器を訓練し,それらの決定を最大ルールで組み合わせる,教師付き学習手法を提案する。
論文 参考訳(メタデータ) (2020-06-11T22:59:59Z) - Twitter Bot Detection Using Bidirectional Long Short-term Memory Neural
Networks and Word Embeddings [6.09170287691728]
本稿では,Twitterボットを人間アカウントと区別するために,単語埋め込みを用いたリカレントニューラルネットワークを開発した。
実験により,既存の最先端ボット検出システムと比較して,本手法が競争力を発揮することが示された。
論文 参考訳(メタデータ) (2020-02-03T17:07:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。