論文の概要: Assessing Spear-Phishing Website Generation in Large Language Model Coding Agents
- arxiv url: http://arxiv.org/abs/2602.13363v1
- Date: Fri, 13 Feb 2026 12:12:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-17 14:17:27.946195
- Title: Assessing Spear-Phishing Website Generation in Large Language Model Coding Agents
- Title(参考訳): 大規模言語モデル符号化エージェントにおけるスピアページ生成の評価
- Authors: Tailia Malloy, Tegawende F. Bissyande,
- Abstract要約: 大規模言語モデルは、コンピュータプログラミングでますます使われている。
この研究は、異なるLLMの能力と潜在的に危険なコードベースを生成する意志を比較します。
解析の結果, LLMの計測値とスピアフィッシングサイトの生成性能の相関性はますます低くなった。
- 参考スコア(独自算出の注目度): 0.10195618602298682
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models are expanding beyond being a tool humans use and into independent agents that can observe an environment, reason about solutions to problems, make changes that impact those environments, and understand how their actions impacted their environment. One of the most common applications of these LLM Agents is in computer programming, where agents can successfully work alongside humans to generate code while controlling programming environments or networking systems. However, with the increasing ability and complexity of these agents comes dangers about the potential for their misuse. A concerning application of LLM agents is in the domain cybersecurity, where they have the potential to greatly expand the threat imposed by attacks such as social engineering. This is due to the fact that LLM Agents can work autonomously and perform many tasks that would normally require time and effort from skilled human programmers. While this threat is concerning, little attention has been given to assessments of the capabilities of LLM coding agents in generating code for social engineering attacks. In this work we compare different LLMs in their ability and willingness to produce potentially dangerous code bases that could be misused by cyberattackers. The result is a dataset of 200 website code bases and logs from 40 different LLM coding agents. Analysis of models shows which metrics of LLMs are more and less correlated with performance in generating spear-phishing sites. Our analysis and the dataset we present will be of interest to researchers and practitioners concerned in defending against the potential misuse of LLMs in spear-phishing.
- Abstract(参考訳): 大規模言語モデルは、人間が使用するツールを超えて、環境を観察し、問題に対する解決策を推論し、環境に影響を与える変更を行い、彼らの行動が環境に与える影響を理解する、独立したエージェントへと拡張されています。
これらのLLMエージェントの最も一般的な応用の1つは、コンピュータプログラミングであり、エージェントはプログラム環境やネットワークシステムを制御しながら、人間と一緒にコードを生成することに成功した。
しかし、これらのエージェントの能力と複雑さが増すにつれ、それらの誤用の可能性について危険が生じる。
LLMエージェントの応用はドメインサイバーセキュリティにあり、社会工学のような攻撃による脅威を大きく拡大する可能性がある。
これは、LLM Agentsが自律的に動作し、熟練した人間プログラマの時間と労力を必要とする多くのタスクを実行できるためである。
この脅威は懸念されているが、社会工学的攻撃のためのコード生成におけるLLM符号化エージェントの能力の評価にはほとんど注意が向けられていない。
本研究では,サイバー攻撃者によって誤用される可能性のある,潜在的に危険なコードベースを生成する能力と意欲を,異なるLLMと比較する。
その結果、40の異なるLLMコーディングエージェントから200のWebサイトコードベースとログのデータセットが得られた。
モデル解析により, LLMの計測値とスピアフィッシングサイトの生成性能との相関がますます低くなった。
我々の分析とデータセットは、スピアフィッシングにおけるLSMの潜在的な誤用から守ることに関心を持つ研究者や実践者にとって興味深いものです。
関連論文リスト
- ASTRA: Agentic Steerability and Risk Assessment Framework [3.9756746779772834]
大規模言語モデル(LLM)を活用したAIエージェントのセキュア化は、今日のAIセキュリティにおける最も重要な課題の1つだ。
ASTRA は LLM の有効性を評価するための第一種フレームワークである。
論文 参考訳(メタデータ) (2025-11-22T16:32:29Z) - Can LLMs effectively provide game-theoretic-based scenarios for cybersecurity? [51.96049148869987]
大規模言語モデル(LLM)は、コンピュータシステムのセキュリティに新しいツールと課題を提供する。
従来のゲーム理論フレームワークが,LLM駆動型アクターやボットの動作を効果的に捉えることができるかどうかを検討する。
論文 参考訳(メタデータ) (2025-08-04T08:57:14Z) - From Promise to Peril: Rethinking Cybersecurity Red and Blue Teaming in the Age of LLMs [5.438441265064793]
大規模言語モデル(LLM)は、赤と青のチーム操作を増強することでサイバーセキュリティを再構築する。
このポジションペーパーは、MITRE ATT&CKやNIST Cybersecurity Framework (CSF)のようなサイバーセキュリティフレームワークにまたがってLLMアプリケーションをマッピングする。
主な制限は幻覚、文脈保持の制限、推論の低さ、プロンプトに対する感受性である。
我々は,人間のループ監視の維持,モデル説明可能性の向上,プライバシ保護機構の統合,敵対的搾取に頑健なシステムの構築を推奨する。
論文 参考訳(メタデータ) (2025-06-16T12:52:19Z) - Commercial LLM Agents Are Already Vulnerable to Simple Yet Dangerous Attacks [88.84977282952602]
最近のMLセキュリティ文献は、整列型大規模言語モデル(LLM)に対する攻撃に焦点を当てている。
本稿では,LLMエージェントに特有のセキュリティとプライバシの脆弱性を分析する。
我々は、人気のあるオープンソースおよび商用エージェントに対する一連の実証的な攻撃を行い、その脆弱性の即時的な影響を実証した。
論文 参考訳(メタデータ) (2025-02-12T17:19:36Z) - Emerging Security Challenges of Large Language Models [6.151633954305939]
大規模言語モデル(LLM)は、多くの異なる分野において短期間で記録的な普及を遂げた。
これらは、特定の下流タスクに合わせて調整されることなく、多様なデータでトレーニングされたオープンエンドモデルである。
従来の機械学習(ML)モデルは、敵の攻撃に対して脆弱である。
論文 参考訳(メタデータ) (2024-12-23T14:36:37Z) - When LLMs Go Online: The Emerging Threat of Web-Enabled LLMs [26.2943792874156]
個人データを含むサイバー攻撃における大規模言語モデル(LLM)の誤用に関連するリスクについて検討する。
具体的には,サイバーアタックの実施を指示されたLLMエージェントがいかに強力かを理解することを目的としている。
本稿では,PII(Personally Identible Information)の収集,偽造投稿の生成,スピアフィッシングメールの作成の3つの攻撃シナリオについて検討する。
論文 参考訳(メタデータ) (2024-10-18T16:16:34Z) - AgentHarm: A Benchmark for Measuring Harmfulness of LLM Agents [84.96249955105777]
LLMエージェントは誤用された場合、より大きなリスクを引き起こすが、その堅牢性は未発見のままである。
我々は, LLMエージェント誤用の研究を容易にするために, AgentHarmと呼ばれる新しいベンチマークを提案する。
主要なLLMは、ジェイルブレイクなしで悪意のあるエージェント要求に驚くほど準拠している。
論文 参考訳(メタデータ) (2024-10-11T17:39:22Z) - The Wolf Within: Covert Injection of Malice into MLLM Societies via an MLLM Operative [55.08395463562242]
MLLM(Multimodal Large Language Models)は、AGI(Artificial General Intelligence)の新たな境界を常に定義している。
本稿では,MLLM社会において,悪意のあるコンテンツの間接的伝播という新たな脆弱性について検討する。
論文 参考訳(メタデータ) (2024-02-20T23:08:21Z) - AgentBench: Evaluating LLMs as Agents [99.12825098528212]
エージェントとしてのLarge Language Model (LLM)は近年広く認知されている。
我々は,LLM-as-Agentの推論と意思決定能力を評価するために,8つの異なる環境からなるベンチマークであるAgentBenchを提案する。
論文 参考訳(メタデータ) (2023-08-07T16:08:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。