論文の概要: VirtualCrime: Evaluating Criminal Potential of Large Language Models via Sandbox Simulation
- arxiv url: http://arxiv.org/abs/2601.13981v1
- Date: Tue, 20 Jan 2026 13:59:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:23.337048
- Title: VirtualCrime: Evaluating Criminal Potential of Large Language Models via Sandbox Simulation
- Title(参考訳): VirtualCrime:サンドボックスシミュレーションによる大規模言語モデルの犯罪可能性の評価
- Authors: Yilin Tang, Yu Wang, Lanlan Qiu, Wenchang Gao, Yunfei Ma, Baicheng Chen, Tianxing He,
- Abstract要約: 大規模言語モデル(LLM)は、多段階の意思決定、計画、行動において強力な能力を示している。
その強い問題解決能力が犯罪に悪用されるかどうかが問題である。
本稿では,3エージェントシステムに基づくサンドボックスシミュレーションフレームワークであるVirtualCrimeを提案する。
- 参考スコア(独自算出の注目度): 10.613890248478189
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) have shown strong capabilities in multi-step decision-making, planning and actions, and are increasingly integrated into various real-world applications. It is concerning whether their strong problem-solving abilities may be misused for crimes. To address this gap, we propose VirtualCrime, a sandbox simulation framework based on a three-agent system to evaluate the criminal capabilities of models. Specifically, this framework consists of an attacker agent acting as the leader of a criminal team, a judge agent determining the outcome of each action, and a world manager agent updating the environment state and entities. Furthermore, we design 40 diverse crime tasks within this framework, covering 11 maps and 13 crime objectives such as theft, robbery, kidnapping, and riot. We also introduce a human player baseline for reference to better interpret the performance of LLM agents. We evaluate 8 strong LLMs and find (1) All agents in the simulation environment compliantly generate detailed plans and execute intelligent crime processes, with some achieving relatively high success rates; (2) In some cases, agents take severe action that inflicts harm to NPCs to achieve their goals. Our work highlights the need for safety alignment when deploying agentic AI in real-world settings.
- Abstract(参考訳): 大規模言語モデル(LLM)は、多段階の意思決定、計画、行動において強力な能力を示し、様々な現実世界のアプリケーションにますます統合されている。
その強い問題解決能力が犯罪に悪用されるかどうかが問題である。
このギャップに対処するために,3エージェントシステムに基づくサンドボックスシミュレーションフレームワークであるVirtualCrimeを提案する。
具体的には、犯罪者チームのリーダーとして行動する攻撃エージェントと、各アクションの結果を決定する判断エージェントと、環境状態やエンティティを更新する世界管理エージェントとから構成される。
さらに,この枠組みにおける40の多様な犯罪タスクを設計し,11の地図と13の犯罪目標(盗難,強盗,誘拐,暴動など)を網羅した。
また、LLMエージェントの性能をよりよく理解するために、人間のプレイヤーベースラインも導入する。
我々は,(1)シミュレーション環境におけるエージェントが,詳細な計画を作成し,知的犯罪処理を実行すること,(2)比較的高い成功率を達成すること,(2)エージェントがNPCに危害を与えるような厳しい行動をとること,の8つを評価した。
私たちの研究は、エージェントAIを現実世界の環境にデプロイする際の安全アライメントの必要性を強調しています。
関連論文リスト
- Are Your Agents Upward Deceivers? [73.1073084327614]
大規模言語モデル(LLM)ベースのエージェントは、ユーザのためにタスクを実行する自律的な従属者として、ますます使われています。
これは、人間の組織の個人がどのように上官に嘘をついて良いイメージを作り出したり、罰を免れるかのような、詐欺にも関与するかどうかという問題を提起する。
本研究では,環境制約に直面するエージェントが障害を隠蔽し,報告なしに要求されない動作を行う現象であるエージェント上行錯誤を観察・定義する。
論文 参考訳(メタデータ) (2025-12-04T14:47:05Z) - SimuRA: A World-Model-Driven Simulative Reasoning Architecture for General Goal-Oriented Agents [15.91448165400836]
SimuRAは汎用エージェント推論のための目標指向アーキテクチャである。
我々は、オープンソースの研究デモとして、SimuRA上に構築されたWebブラウジングエージェントReasonerAgent-Webをリリースした。
論文 参考訳(メタデータ) (2025-07-31T17:57:20Z) - CrimeMind: Simulating Urban Crime with Multi-Modal LLM Agents [15.700232503447737]
マルチモーダルな都市環境下での都市犯罪をシミュレートするための新しい枠組みであるCristMindを提案する。
我々の設計の重要な革新は、ルールアクティビティ理論(RAT)をクライムミンドのエージェントワークフローに統合することである。
アメリカの主要都市4都市での実験では、犯罪ミンドは犯罪ホットスポット予測と空間分布精度において従来のABMとディープラーニングベースラインの両方を上回っている。
論文 参考訳(メタデータ) (2025-06-06T11:01:21Z) - AgentVigil: Generic Black-Box Red-teaming for Indirect Prompt Injection against LLM Agents [54.29555239363013]
本稿では,間接的なインジェクション脆弱性を自動的に検出し,悪用するための汎用的なブラックボックスファジリングフレームワークであるAgentVigilを提案する。
我々はAgentVigilをAgentDojoとVWA-advの2つの公開ベンチマークで評価し、o3-miniとGPT-4oに基づくエージェントに対して71%と70%の成功率を達成した。
攻撃を現実世界の環境に適用し、悪質なサイトを含む任意のURLに誘導するエージェントをうまく誘導する。
論文 参考訳(メタデータ) (2025-05-09T07:40:17Z) - Enhancing LLM-Based Agents via Global Planning and Hierarchical Execution [18.68431625184045]
GoalActは、継続的に更新されるグローバルな計画メカニズムを導入し、階層的な実行戦略を統合する新しいエージェントフレームワークである。
GoalActはタスク実行を、検索、コーディング、書き込みなどを含む高度なスキルに分解する。
われわれはGoalAct on LegalAgentBenchの評価を行った。
論文 参考訳(メタデータ) (2025-04-23T09:43:40Z) - MAgIC: Investigation of Large Language Model Powered Multi-Agent in Cognition, Adaptability, Rationality and Collaboration [98.18244218156492]
大規模言語モデル(LLM)は、非常に高度な自然言語処理を持つ。
アプリケーションがマルチエージェント環境に拡大するにつれて、包括的な評価フレームワークの必要性が生じる。
この研究は、マルチエージェント設定内でLLMを評価するための新しい競合ベースのベンチマークフレームワークを導入している。
論文 参考訳(メタデータ) (2023-11-14T21:46:27Z) - The Rise and Potential of Large Language Model Based Agents: A Survey [91.71061158000953]
大規模言語モデル(LLM)は、人工知能(AGI)の潜在的な火花と見なされる
まず、エージェントの概念を哲学的起源からAI開発まで追跡し、LLMがエージェントに適した基盤である理由を説明します。
単一エージェントシナリオ,マルチエージェントシナリオ,ヒューマンエージェント協調の3つの側面において,LLMベースのエージェントの広範な応用について検討する。
論文 参考訳(メタデータ) (2023-09-14T17:12:03Z) - ERMAS: Becoming Robust to Reward Function Sim-to-Real Gaps in
Multi-Agent Simulations [110.72725220033983]
Epsilon-Robust Multi-Agent Simulation (ERMAS)は、このようなマルチエージェントのsim-to-realギャップに対して堅牢なAIポリシーを学ぶためのフレームワークである。
ERMASは、エージェントリスク回避の変化に対して堅牢な税政策を学び、複雑な時間シミュレーションで最大15%社会福祉を改善する。
特に、ERMASは、エージェントリスク回避の変化に対して堅牢な税制政策を学び、複雑な時間シミュレーションにおいて、社会福祉を最大15%改善する。
論文 参考訳(メタデータ) (2021-06-10T04:32:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。