論文の概要: What Does the Bot Say? Opportunities and Risks of Large Language Models
in Social Media Bot Detection
- arxiv url: http://arxiv.org/abs/2402.00371v1
- Date: Thu, 1 Feb 2024 06:21:19 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-02 16:12:16.238186
- Title: What Does the Bot Say? Opportunities and Risks of Large Language Models
in Social Media Bot Detection
- Title(参考訳): ボットは何て言うの?
ソーシャルメディアボット検出における大規模言語モデルの機会とリスク
- Authors: Shangbin Feng, Herun Wan, Ningnan Wang, Zhaoxuan Tan, Minnan Luo,
Yulia Tsvetkov
- Abstract要約: ソーシャルボット検出における大規模言語モデルの可能性とリスクについて検討する。
本稿では,多様なユーザ情報モダリティを分割し,克服するための混合異種エキスパートフレームワークを提案する。
実験により、1000の注釈付き例に対する命令チューニングは、最先端のベースラインよりも優れた特殊なLLMを生成することが示された。
- 参考スコア(独自算出の注目度): 51.46864805462009
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Social media bot detection has always been an arms race between advancements
in machine learning bot detectors and adversarial bot strategies to evade
detection. In this work, we bring the arms race to the next level by
investigating the opportunities and risks of state-of-the-art large language
models (LLMs) in social bot detection. To investigate the opportunities, we
design novel LLM-based bot detectors by proposing a
mixture-of-heterogeneous-experts framework to divide and conquer diverse user
information modalities. To illuminate the risks, we explore the possibility of
LLM-guided manipulation of user textual and structured information to evade
detection. Extensive experiments with three LLMs on two datasets demonstrate
that instruction tuning on merely 1,000 annotated examples produces specialized
LLMs that outperform state-of-the-art baselines by up to 9.1% on both datasets,
while LLM-guided manipulation strategies could significantly bring down the
performance of existing bot detectors by up to 29.6% and harm the calibration
and reliability of bot detection systems.
- Abstract(参考訳): ソーシャルメディアのボット検出は、機械学習ボット検出器の進歩と、検出を避けるための敵対的なボット戦略との武器競争だった。
本研究は,ソーシャルボット検出における最先端の大規模言語モデル(llm)の機会とリスクを調査することにより,次のレベルへ武器競争をもたらす。
そこで本研究では,多種多様なユーザ情報モダリティを分割し,克服するための混成不均質なフレームワークを提案する。
リスクを照らすため,LLM誘導によるユーザテキストと構造化情報の操作による検出回避の可能性を探る。
2つのデータセット上での3つのLLMによる大規模な実験では、1000個の注釈付きサンプルの命令チューニングによって、両方のデータセットで最先端のベースラインを最大9.1%上回る特殊なLLMが生成される一方、LLM誘導の操作戦略は既存のボット検出器の性能を最大29.6%低下させ、ボット検出システムの校正と信頼性を損なう可能性がある。
関連論文リスト
- On the Safety Concerns of Deploying LLMs/VLMs in Robotics: Highlighting
the Risks and Vulnerabilities [50.31806287390321]
ロボットの動作を操作または誤操作することは容易であり、安全上の危険をもたらす。
我々のデータは、即時攻撃で21.2%、知覚攻撃で30.2%の平均的なパフォーマンス劣化を示す。
論文 参考訳(メタデータ) (2024-02-15T22:01:45Z) - BotSSCL: Social Bot Detection with Self-Supervised Contrastive Learning [6.317191658158437]
自己監督型コントラスト学習(BotSSCL)を用いたソーシャルボット検出のための新しいフレームワークを提案する。
BotSSCLは対照的な学習を用いて、埋め込み空間におけるソーシャルボットと人間を区別し、線形分離性を改善する。
ボットアカウントの操作による検出回避に対するBotSSCLの堅牢性を示す。
論文 参考訳(メタデータ) (2024-02-06T06:13:13Z) - Spotting LLMs With Binoculars: Zero-Shot Detection of Machine-Generated
Text [102.51430575139572]
密接に関連する2つの言語モデルとの対比に基づくスコアは、人文と機械文の分離に極めて正確である。
本稿では,一対の事前学習 LLM を用いた簡単な計算しか必要としない新しい LLM 検出器を提案する。
Binocularsと呼ばれるこの方法は、トレーニングデータなしで最先端の精度を実現する。
論文 参考訳(メタデータ) (2024-01-22T16:09:47Z) - A Survey on LLM-generated Text Detection: Necessity, Methods, and Future
Directions [41.71052488278973]
LLM生成テキストを検出できる検出器を開発する必要がある。
このことは、LLMが生成するコンテンツの有害な影響から、LLMの潜在的な誤用や、芸術的表現やソーシャルネットワークのような保護領域の軽減に不可欠である。
検出器技術は最近、透かし技術、ゼロショット法、微動LMs法、対向学習法、LSMを検出器として使う方法、そして人力支援法などの革新によって、顕著な進歩をみせている。
論文 参考訳(メタデータ) (2023-10-23T09:01:13Z) - LMBot: Distilling Graph Knowledge into Language Model for Graph-less
Deployment in Twitter Bot Detection [41.043975659303435]
グラフニューラルネットワーク(GNN)の知識を言語モデル(LM)に抽出する新しいボット検出フレームワークLMBotを提案する。
グラフベースのデータセットでは、LMの出力はGNNの入力機能を提供し、ボットの検出と知識の抽出を反復的かつ相互に強化するプロセスでLMに戻すことができる。
実験の結果,LMBotは4つのTwitterボット検出ベンチマークで最先端のパフォーマンスを実現していることがわかった。
論文 参考訳(メタデータ) (2023-06-30T05:50:26Z) - Red Teaming Language Model Detectors with Language Models [114.36392560711022]
大規模言語モデル(LLM)は、悪意のあるユーザによって悪用された場合、重大な安全性と倫理的リスクをもたらす。
近年,LLM生成テキストを検出し,LLMを保護するアルゴリズムが提案されている。
1) LLMの出力中の特定の単語を, 文脈が与えられたシノニムに置き換えること, 2) 生成者の書き方を変更するための指示プロンプトを自動で検索すること,である。
論文 参考訳(メタデータ) (2023-05-31T10:08:37Z) - Can AI-Generated Text be Reliably Detected? [54.670136179857344]
LLMの規制されていない使用は、盗作、偽ニュースの生成、スパムなど、悪意のある結果をもたらす可能性がある。
最近の研究は、生成されたテキスト出力に存在する特定のモデルシグネチャを使用するか、透かし技術を適用してこの問題に対処しようとしている。
本稿では,これらの検出器は実用シナリオにおいて信頼性が低いことを示す。
論文 参考訳(メタデータ) (2023-03-17T17:53:19Z) - Detection of Novel Social Bots by Ensembles of Specialized Classifiers [60.63582690037839]
悪意ある俳優は、社会ボットとして知られるアルゴリズムによって部分的に制御される不正なソーシャルメディアアカウントを作成し、誤情報を広め、オンラインでの議論を扇動する。
異なるタイプのボットが、異なる行動特徴によって特徴づけられることを示す。
本稿では,ボットのクラスごとに専門的な分類器を訓練し,それらの決定を最大ルールで組み合わせる,教師付き学習手法を提案する。
論文 参考訳(メタデータ) (2020-06-11T22:59:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。