論文の概要: The Imitation Game: Using Large Language Models as Chatbots to Combat Chat-Based Cybercrimes
- arxiv url: http://arxiv.org/abs/2512.21371v1
- Date: Wed, 24 Dec 2025 05:34:05 GMT
- ステータス: 情報取得中
- システム内更新日: 2025-12-29 11:52:33.792881
- Title: The Imitation Game: Using Large Language Models as Chatbots to Combat Chat-Based Cybercrimes
- Title(参考訳): シミュレーションゲーム:大規模言語モデルをチャットボットとして使用してチャットベースのサイバー犯罪に対処する
- Authors: Yifan Yao, Baojuan Wang, Jinhao Duan, Kaidi Xu, ChuanKai Guo, Zhibo Eric Sun, Yue Zhang,
- Abstract要約: チャットベースのサイバー犯罪は広範にわたる脅威として浮上している。
従来の防衛機構は、これらの会話的脅威を特定するのに苦労している。
本稿では,Large Language Modelsをアクティブエージェントとしてデプロイする最初のシステムLUREを提案する。
- 参考スコア(独自算出の注目度): 24.05325129572158
- License:
- Abstract: Chat-based cybercrime has emerged as a pervasive threat, with attackers leveraging real-time messaging platforms to conduct scams that rely on trust-building, deception, and psychological manipulation. Traditional defense mechanisms, which operate on static rules or shallow content filters, struggle to identify these conversational threats, especially when attackers use multimedia obfuscation and context-aware dialogue. In this work, we ask a provocative question inspired by the classic Imitation Game: Can machines convincingly pose as human victims to turn deception against cybercriminals? We present LURE (LLM-based User Response Engagement), the first system to deploy Large Language Models (LLMs) as active agents, not as passive classifiers, embedded within adversarial chat environments. LURE combines automated discovery, adversarial interaction, and OCR-based analysis of image-embedded payment data. Applied to the setting of illicit video chat scams on Telegram, our system engaged 53 actors across 98 groups. In over 56 percent of interactions, the LLM maintained multi-round conversations without being noticed as a bot, effectively "winning" the imitation game. Our findings reveal key behavioral patterns in scam operations, such as payment flows, upselling strategies, and platform migration tactics.
- Abstract(参考訳): チャットベースのサイバー犯罪は、攻撃者がリアルタイムメッセージングプラットフォームを利用して、信頼構築、詐欺、心理的操作に依存する詐欺を行うという、広範囲にわたる脅威として浮上している。
静的ルールや浅いコンテンツフィルタで動作する従来の防御メカニズムは、特に攻撃者がマルチメディア難読化やコンテキスト認識対話を使用する場合、これらの会話的脅威を特定するのに苦労する。
この研究で私たちは、古典的なImitation Gameに触発された挑発的な質問を投げかけます。
本稿では,Large Language Models (LLM) を能動的エージェントとしてデプロイする最初のシステムであるLURE (LLM-based User Response Engagement) について述べる。
LUREは、自動発見、敵対的相互作用、OCRに基づく画像埋め込み支払いデータの解析を組み合わせる。
Telegramの不正なビデオチャット詐欺の設定に応用し、98グループで53人のアクターを雇った。
インタラクションの56%以上において、LLMはボットとして認識されずにマルチラウンドの会話を維持し、事実上模倣ゲームに勝利した。
その結果,詐欺行為における主要な行動パターン,例えば支払フロー,販売戦略,プラットフォーム移行戦略が明らかになった。
関連論文リスト
- SENTINEL: A Multi-Modal Early Detection Framework for Emerging Cyber Threats using Telegram [0.9023847175654603]
サイバー攻撃の早期検出にソーシャルメディア信号を活用するフレームワークであるSENTINELを提案する。
我々は、サイバーセキュリティと365万のメッセージにまたがるオープンソースのインテリジェンス(OSINT)に関連する、Telegram上の16の公開チャネルのデータを使用します。
我々は、ソーシャルメディアの議論がサイバー脅威に関する活発な対話を巻き込み、SENTINELを活用して実世界の脅威に対するシグナルを0.89のF1と整合させることを強調した。
論文 参考訳(メタデータ) (2025-12-24T18:33:34Z) - Synthetic Voices, Real Threats: Evaluating Large Text-to-Speech Models in Generating Harmful Audio [63.18443674004945]
この研究は、TSシステムを利用して有害なコンテンツを含む音声を生成する、コンテンツ中心の脅威を探究する。
HARMGENは、これらの課題に対処する2つのファミリーにまとめられた5つの攻撃群である。
論文 参考訳(メタデータ) (2025-11-14T03:00:04Z) - ScamAgents: How AI Agents Can Simulate Human-Level Scam Calls [0.0]
ScamAgentは、Large Language Models (LLMs)上に構築された自律マルチターンエージェントである。
我々は,ScamAgentが対話記憶を維持し,ユーザ応答のシミュレーションに動的に適応し,会話のターンにまたがる知覚的説得戦略を採用することを示す。
本研究は,多ターン型安全監査,エージェントレベル制御フレームワーク,および生成型AIによる会話の騙しを検知し,阻止する新たな手法の必要性を浮き彫りにした。
論文 参考訳(メタデータ) (2025-08-08T17:01:41Z) - Personalized Attacks of Social Engineering in Multi-turn Conversations: LLM Agents for Simulation and Detection [19.604708321391012]
ソーシャルメディアプラットフォームに対する社会工学(SE)攻撃は重大なリスクをもたらす。
マルチターン会話を生成することで,SE攻撃機構をシミュレートするLLM-agentic framework,SE-VSimを提案する。
本研究は,被害者の人格に関する事前知識を活用することで,ユーザに対してパーソナライズされた保護を提供するための概念実証SE-OmniGuardを提案する。
論文 参考訳(メタデータ) (2025-03-18T19:14:44Z) - Bot Wars Evolved: Orchestrating Competing LLMs in a Counterstrike Against Phone Scams [0.8466004732265869]
ボット・ウォーズ (Bot Wars) は、Large Language Models (LLMs) scam-baiters を用いて、シミュレーションされた対話を通して電話詐欺に対処するフレームワークである。
我々は,3,200件のスカム・ダイアログのデータセットを用いて,人間のスカム・バイティング・インタラクションの179時間に対する検証を行った。
論文 参考訳(メタデータ) (2025-03-10T08:21:36Z) - Exploring and Mitigating Adversarial Manipulation of Voting-Based Leaderboards [93.16294577018482]
このタイプの最も人気のあるベンチマークであるArenaは、ランダムに選択された2つのモデル間のより良いレスポンスを選択するようユーザに求めることで、モデルをランク付けする。
攻撃者は、約1000票の費用で、リーダーボードを変更できる(お気に入りのモデルを宣伝したり、ライバルを降格させる)。
私たちの攻撃は2つのステップで構成されている。まず、攻撃者が95%以上の精度で特定の応答を生成するためにどのモデルを使用したかを決定する方法を示し、次に、攻撃者はこの情報を使ってターゲットモデルに対して一貫して投票することができる。
論文 参考訳(メタデータ) (2025-01-13T17:12:38Z) - Human-Readable Adversarial Prompts: An Investigation into LLM Vulnerabilities Using Situational Context [45.821481786228226]
本研究では,状況文脈を利用した状況駆動型逆転フルプロンプトが効果的であるが,検出がはるかに困難であることを示す。
映画脚本を状況的文脈の枠組みとして利用する攻撃を開発した。
我々は, p-核サンプリングによるAdvPrompterフレームワークを拡張し, 多様な可読テキストを生成する。
論文 参考訳(メタデータ) (2024-12-20T21:43:52Z) - LLM Roleplay: Simulating Human-Chatbot Interaction [52.03241266241294]
本研究では,人間とチャットボットの対話をシミュレートする多元多元対話を自動生成する,目標指向のペルソナに基づく手法を提案する。
本手法は,人間とチャットボットの対話を高い相違率でシミュレートすることができる。
論文 参考訳(メタデータ) (2024-07-04T14:49:46Z) - Countering Malicious Content Moderation Evasion in Online Social
Networks: Simulation and Detection of Word Camouflage [64.78260098263489]
ツイストとカモフラージュキーワードは、プラットフォームコンテンツモデレーションシステムを回避する最もよく使われるテクニックである。
本稿では,コンテンツ回避の新たな手法をシミュレートし,検出する多言語ツールを開発することにより,悪意ある情報に対する対処に大きく貢献する。
論文 参考訳(メタデータ) (2022-12-27T16:08:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。