論文の概要: Bot Wars Evolved: Orchestrating Competing LLMs in a Counterstrike Against Phone Scams
- arxiv url: http://arxiv.org/abs/2503.07036v1
- Date: Mon, 10 Mar 2025 08:21:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-11 15:52:26.640148
- Title: Bot Wars Evolved: Orchestrating Competing LLMs in a Counterstrike Against Phone Scams
- Title(参考訳): ボット戦争が勃発:携帯電話詐欺対策でLLMと競合する組織
- Authors: Nardine Basta, Conor Atkins, Dali Kaafar,
- Abstract要約: ボット・ウォーズ (Bot Wars) は、Large Language Models (LLMs) scam-baiters を用いて、シミュレーションされた対話を通して電話詐欺に対処するフレームワークである。
我々は,3,200件のスカム・ダイアログのデータセットを用いて,人間のスカム・バイティング・インタラクションの179時間に対する検証を行った。
- 参考スコア(独自算出の注目度): 0.8466004732265869
- License:
- Abstract: We present "Bot Wars," a framework using Large Language Models (LLMs) scam-baiters to counter phone scams through simulated adversarial dialogues. Our key contribution is a formal foundation for strategy emergence through chain-of-thought reasoning without explicit optimization. Through a novel two-layer prompt architecture, our framework enables LLMs to craft demographically authentic victim personas while maintaining strategic coherence. We evaluate our approach using a dataset of 3,200 scam dialogues validated against 179 hours of human scam-baiting interactions, demonstrating its effectiveness in capturing complex adversarial dynamics. Our systematic evaluation through cognitive, quantitative, and content-specific metrics shows that GPT-4 excels in dialogue naturalness and persona authenticity, while Deepseek demonstrates superior engagement sustainability.
- Abstract(参考訳): 本稿では,Large Language Models (LLMs) のスキャニングベイタを用いたフレームワークである「ボット・ウォーズ」について述べる。
私たちの重要な貢献は、明示的な最適化のないチェーン・オブ・ソート推論による戦略の台頭のための正式な基盤です。
新たな2層プロンプトアーキテクチャにより,LSMは戦略的コヒーレンスを維持しつつ,人口統計学的に真正な犠牲者を作れます。
我々は,3,200件のスカム・ダイアログのデータセットを用いて,人間のスカム・バイティング・インタラクションの179時間に対する検証を行い,その複雑な対角線力学を捉える効果を実証した。
GPT-4は対話の自然性やペルソナの信頼性に優れており,Deepseekはより優れたエンゲージメント持続可能性を示している。
関連論文リスト
- REALTALK: A 21-Day Real-World Dataset for Long-Term Conversation [51.97224538045096]
本稿では、21日間のメッセージアプリ対話のコーパスであるREALTALKを紹介する。
EI属性とペルソナの整合性を比較し,現実世界の対話による課題を理解する。
その結果,モデルでは対話履歴のみからユーザをシミュレートすることが困難であり,特定のユーザチャットの微調整はペルソナのエミュレーションを改善することがわかった。
論文 参考訳(メタデータ) (2025-02-18T20:29:01Z) - Reasoning-Augmented Conversation for Multi-Turn Jailbreak Attacks on Large Language Models [53.580928907886324]
Reasoning-Augmented Conversationは、新しいマルチターンジェイルブレイクフレームワークである。
有害なクエリを良心的な推論タスクに再構成する。
RACEは,複雑な会話シナリオにおいて,最先端攻撃の有効性を実現する。
論文 参考訳(メタデータ) (2025-02-16T09:27:44Z) - Verbalized Bayesian Persuasion [54.55974023595722]
情報設計(ID)は、送信者が受信者の最適な振る舞いにどのように影響し、特定の目的を達成するかを探索する。
本研究は,従来のBPを人間の対話を含む現実のゲームに拡張した,ベイズ説得(BP)における言語化フレームワークを提案する。
勧告書,法廷相互作用,法執行機関などの対話シナリオにおける数値実験により,従来のBPの理論的結果の再現と効果的な説得戦略の発見が可能であることを確認した。
論文 参考訳(メタデータ) (2025-02-03T18:20:10Z) - Human-Readable Adversarial Prompts: An Investigation into LLM Vulnerabilities Using Situational Context [49.13497493053742]
LLMの脆弱性に関する以前の研究は、しばしば非感覚的な敵のプロンプトに頼っていた。
このギャップには、より現実的で強力な脅威である、人間が読める敵のプロンプトに焦点を合わせることで対処する。
我々の重要な貢献は、映画スクリプトを利用した状況駆動攻撃で、LLMを騙すのに成功する文脈的関連性があり、人間可読なプロンプトを作成することである。
論文 参考訳(メタデータ) (2024-12-20T21:43:52Z) - Who Can Withstand Chat-Audio Attacks? An Evaluation Benchmark for Large Language Models [70.99768410765502]
アドリヤル音声攻撃は、音声に基づく人間と機械の相互作用において、大きな言語モデル(LLM)の増大に重大な脅威をもたらす。
本稿では,4種類の音声攻撃を含むChat-Audio Attacksベンチマークを紹介する。
Gemini-1.5-Pro や GPT-4o など,音声対話機能を備えた6つの最先端 LLM の評価を行った。
論文 参考訳(メタデータ) (2024-11-22T10:30:48Z) - Defending Against Social Engineering Attacks in the Age of LLMs [19.364994678178036]
大きな言語モデル(LLM)は、人間の会話パターンをエミュレートし、チャットベースのソーシャルエンジニアリング(CSE)攻撃を促進する。
本研究では,CSE脅威に対するファシリテーターとディフェンダーの両立能力について検討した。
メッセージレベルと会話レベルの両方の検出を改善するモジュール型ディフェンスパイプラインであるConvoSentinelを提案する。
論文 参考訳(メタデータ) (2024-06-18T04:39:40Z) - Adversarial Tuning: Defending Against Jailbreak Attacks for LLMs [13.317364896194903]
本稿では,大規模言語モデルの汎用防衛能力を高めるための2段階の逆調整フレームワークを提案する。
第1段階では,トークンレベルの逆数生成を効率的に行うために,階層型メタユニバーサル逆数学習を導入する。
第2段階では,自動対向プロンプト学習により,意味レベルの対向プロンプトを反復的に洗練する手法を提案する。
論文 参考訳(メタデータ) (2024-06-07T15:37:15Z) - ChatEval: Towards Better LLM-based Evaluators through Multi-Agent Debate [57.71597869337909]
われわれはChatEvalと呼ばれるマルチエージェントの審判チームを構築し、異なるモデルから生成された応答の品質を自律的に議論し評価する。
分析の結果,ChatEvalは単なるテキストスコアリングを超越し,信頼性評価のための人間模倣評価プロセスを提供することがわかった。
論文 参考訳(メタデータ) (2023-08-14T15:13:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。