論文の概要: When AI Agents Collude Online: Financial Fraud Risks by Collaborative LLM Agents on Social Platforms
- arxiv url: http://arxiv.org/abs/2511.06448v1
- Date: Sun, 09 Nov 2025 16:30:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 21:18:44.952275
- Title: When AI Agents Collude Online: Financial Fraud Risks by Collaborative LLM Agents on Social Platforms
- Title(参考訳): AIエージェントがオンラインに衝突する: ソーシャルプラットフォーム上での協調的LLMエージェントによる金融侵害リスク
- Authors: Qibing Ren, Zhijie Zheng, Jiaxuan Guo, Junchi Yan, Lizhuang Ma, Jing Shao,
- Abstract要約: 大規模言語モデル(LLM)エージェントを用いた大規模マルチエージェントシステムにおける集団金融詐欺のリスクについて検討する。
金融詐欺シナリオをシミュレーションするための大規模ベンチマークであるMultiAgentFraudBenchを提案する。
- 参考スコア(独自算出の注目度): 101.2197679948061
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, we study the risks of collective financial fraud in large-scale multi-agent systems powered by large language model (LLM) agents. We investigate whether agents can collaborate in fraudulent behaviors, how such collaboration amplifies risks, and what factors influence fraud success. To support this research, we present MultiAgentFraudBench, a large-scale benchmark for simulating financial fraud scenarios based on realistic online interactions. The benchmark covers 28 typical online fraud scenarios, spanning the full fraud lifecycle across both public and private domains. We further analyze key factors affecting fraud success, including interaction depth, activity level, and fine-grained collaboration failure modes. Finally, we propose a series of mitigation strategies, including adding content-level warnings to fraudulent posts and dialogues, using LLMs as monitors to block potentially malicious agents, and fostering group resilience through information sharing at the societal level. Notably, we observe that malicious agents can adapt to environmental interventions. Our findings highlight the real-world risks of multi-agent financial fraud and suggest practical measures for mitigating them. Code is available at https://github.com/zheng977/MutiAgent4Fraud.
- Abstract(参考訳): 本研究では,大規模言語モデル(LLM)エージェントを用いた大規模マルチエージェントシステムにおける集団金融詐欺のリスクについて検討する。
エージェントが不正行為に協力できるかどうか,そのような協力がいかにリスクを増幅するか,詐欺の成功に影響を与える要因は何かを検討する。
本研究を支援するためにMultiAgentFraudBenchを提案する。MultiAgentFraudBenchは、現実的なオンラインインタラクションに基づく金融詐欺シナリオをシミュレーションするための大規模なベンチマークである。
このベンチマークは28の典型的なオンライン詐欺シナリオをカバーし、パブリックドメインとプライベートドメインの両方にわたる完全な詐欺ライフサイクルをカバーしている。
さらに、インタラクションの深さ、アクティビティレベル、きめ細かいコラボレーション失敗モードなど、詐欺の成功に影響を及ぼす重要な要因を分析した。
最後に、不正な投稿や対話にコンテンツレベルの警告を追加すること、潜在的に悪意のあるエージェントをブロックするモニターとしてLLMを使用すること、社会レベルでの情報共有を通じてグループレジリエンスを高めることなど、一連の緩和戦略を提案する。
特に、悪意のあるエージェントが環境介入に適応できることを観察する。
本研究は,マルチエージェント型金融詐欺の現実的リスクを浮き彫りにし,その軽減に向けた実践的対策を提案する。
コードはhttps://github.com/zheng977/MutiAgent4Fraudで公開されている。
関連論文リスト
- Can an Individual Manipulate the Collective Decisions of Multi-Agents? [53.01767232004823]
M-Spoilerは、マルチエージェントシステム内のエージェントインタラクションをシミュレートして、対向サンプルを生成するフレームワークである。
M-スポイラーは、敵対的サンプルの最適化を積極的に支援するスタブボーン剤を導入した。
本研究は,マルチエージェントシステムにおける個々のエージェントの知識によって引き起こされるリスクを検証した。
論文 参考訳(メタデータ) (2025-09-20T01:54:20Z) - When Autonomy Goes Rogue: Preparing for Risks of Multi-Agent Collusion in Social Systems [78.04679174291329]
悪意のあるマルチエージェントシステム(MAS)のリスクをシミュレートするための概念実証手法を提案する。
この枠組みを、誤情報拡散とeコマース詐欺という2つのリスクの高い分野に適用する。
その結果,分散システムの方が,集中型システムよりも悪意ある行動を実行するのに効果的であることが示唆された。
論文 参考訳(メタデータ) (2025-07-19T15:17:30Z) - Fraud-R1 : A Multi-Round Benchmark for Assessing the Robustness of LLM Against Augmented Fraud and Phishing Inducements [23.99500412996251]
Fraud-R1は、フィッシング詐欺、偽の求人投稿、ソーシャルメディア、ニュースから発生した8,564件の詐欺事件を5つの主要な詐欺タイプに分類する。
以前のベンチマークとは異なり、Fraud-R1はLLMの不正に対する耐性を異なる段階で評価するためのマルチラウンド評価パイプラインを導入している。
評価の結果,詐欺やフィッシングの誘因を擁護する上で,特にロールプレイ設定や偽職投稿において重要な課題が明らかとなった。
論文 参考訳(メタデータ) (2025-02-18T14:47:02Z) - The Wolf Within: Covert Injection of Malice into MLLM Societies via an MLLM Operative [55.08395463562242]
MLLM(Multimodal Large Language Models)は、AGI(Artificial General Intelligence)の新たな境界を常に定義している。
本稿では,MLLM社会において,悪意のあるコンテンツの間接的伝播という新たな脆弱性について検討する。
論文 参考訳(メタデータ) (2024-02-20T23:08:21Z) - Locally Differentially Private Embedding Models in Distributed Fraud
Prevention Systems [2.001149416674759]
プライバシの観点から設計され,最近のPETs Prize Challengesで授与された不正防止のための協調的なディープラーニングフレームワークを提案する。
各種トランザクションシーケンスの潜時埋め込み表現とローカル差分プライバシを利用して、外部にホストされた不正や異常検出モデルを安全に通知するデータリリース機構を構築する。
我々は,大規模決済ネットワークが寄贈した2つの分散データセットへのコントリビューションを評価し,他のアプリケーションドメインでの公開作業に類似したユーティリティ・プライバシ・トレードオフとともに,一般的な推論時攻撃に対するロバスト性を示す。
論文 参考訳(メタデータ) (2024-01-03T14:04:18Z) - Transparency and Privacy: The Role of Explainable AI and Federated
Learning in Financial Fraud Detection [0.9831489366502302]
本研究は,これらの課題に対処するために,FL(Federated Learning)とXAI(Explainable AI)を用いた新しいアプローチを提案する。
FLは、金融機関が顧客データを直接共有することなく、不正取引を検出するモデルを協調的に訓練することを可能にする。
XAIは、モデルによってなされた予測が人間の専門家によって理解され解釈され、システムに透明性と信頼のレイヤを追加することを保証します。
論文 参考訳(メタデータ) (2023-12-20T18:26:59Z) - A Privacy-Preserving Hybrid Federated Learning Framework for Financial
Crime Detection [27.284477227066972]
本稿では,金融犯罪検知のためのセキュアでプライバシーに配慮した学習と推論を提供するハイブリッド・フェデレーション学習システムを提案する。
提案するフレームワークの検知性能とプライバシ保護能力を評価するために,広範な実証的研究を行った。
論文 参考訳(メタデータ) (2023-02-07T18:12:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。