論文の概要: LLMs unlock new paths to monetizing exploits
- arxiv url: http://arxiv.org/abs/2505.11449v1
- Date: Fri, 16 May 2025 17:05:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-19 14:36:15.678069
- Title: LLMs unlock new paths to monetizing exploits
- Title(参考訳): LLMはエクスプロイトの収益化に新たな道を開く
- Authors: Nicholas Carlini, Milad Nasr, Edoardo Debenedetti, Barry Wang, Christopher A. Choquette-Choo, Daphne Ippolito, Florian Tramèr, Matthew Jagielski,
- Abstract要約: 大規模言語モデル(LLM)はすぐにサイバー攻撃の経済性を変えるだろう。
LLMは、敵がユーザーごとにカスタマイズされた攻撃を起動することを可能にする。
- 参考スコア(独自算出の注目度): 85.60539289753564
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We argue that Large language models (LLMs) will soon alter the economics of cyberattacks. Instead of attacking the most commonly used software and monetizing exploits by targeting the lowest common denominator among victims, LLMs enable adversaries to launch tailored attacks on a user-by-user basis. On the exploitation front, instead of human attackers manually searching for one difficult-to-identify bug in a product with millions of users, LLMs can find thousands of easy-to-identify bugs in products with thousands of users. And on the monetization front, instead of generic ransomware that always performs the same attack (encrypt all your data and request payment to decrypt), an LLM-driven ransomware attack could tailor the ransom demand based on the particular content of each exploited device. We show that these two attacks (and several others) are imminently practical using state-of-the-art LLMs. For example, we show that without any human intervention, an LLM finds highly sensitive personal information in the Enron email dataset (e.g., an executive having an affair with another employee) that could be used for blackmail. While some of our attacks are still too expensive to scale widely today, the incentives to implement these attacks will only increase as LLMs get cheaper. Thus, we argue that LLMs create a need for new defense-in-depth approaches.
- Abstract(参考訳): 我々は、大規模言語モデル(LLM)がすぐにサイバー攻撃の経済性を変えると論じている。
最も一般的に使われているソフトウェアを攻撃し、被害者の最も低い共通分母を標的にすることで、エクスプロイトを収益化する代わりに、LLMは敵がユーザーごとにカスタマイズされた攻撃を起動できるようにする。
エクスプロイトの面では、人間の攻撃者が何百万ものユーザーを抱える製品で1つの難しいバグを手動で探す代わりに、LLMは何千ものユーザーを持つ製品の何千もの簡単に識別できるバグを見つけることができる。
そして、収益化の面では、常に同じ攻撃を行う一般的なランサムウェア(すべてのデータを暗号化し、復号化のための支払いを要求する)の代わりに、LLM駆動のランサムウェア攻撃は、悪用された各機器の特定のコンテンツに基づいてランサム要求を調整できる。
これらの2つの攻撃(および他のいくつかの攻撃)は、最先端のLLMを用いて即時実行可能であることを示す。
例えば、人間の介入なしに、LLMは、脅迫に使用できるEメールデータセット(例えば、他の従業員と関係のある幹部)に非常に機密性の高い個人情報を見つける。
現在、我々の攻撃のいくつかは大規模にスケールするには高価すぎるが、これらの攻撃を実装するインセンティブは、LSMが安価になるにつれて増加する。
したがって, LLM は新たなディフェンス・イン・ディペンデンス・アプローチの必要性を生じさせる。
関連論文リスト
- Commercial LLM Agents Are Already Vulnerable to Simple Yet Dangerous Attacks [88.84977282952602]
最近のMLセキュリティ文献は、整列型大規模言語モデル(LLM)に対する攻撃に焦点を当てている。
本稿では,LLMエージェントに特有のセキュリティとプライバシの脆弱性を分析する。
我々は、人気のあるオープンソースおよび商用エージェントに対する一連の実証的な攻撃を行い、その脆弱性の即時的な影響を実証した。
論文 参考訳(メタデータ) (2025-02-12T17:19:36Z) - TPIA: Towards Target-specific Prompt Injection Attack against Code-oriented Large Language Models [21.206040279980858]
本稿では,標的特異的プロンプトインジェクション攻撃(TPIA)という,コードLLMに対する新たな攻撃パラダイムを提案する。
TPIAは悪意のある命令の情報を含む非機能的摂動を生成し、被害者のコードコンテキストに挿入する。
我々のTPIAは、3つの代表的なオープンソースコードLLMと、2つの主要な商用コードLLM統合アプリケーションにうまく対応できることを示す。
論文 参考訳(メタデータ) (2024-07-12T10:59:32Z) - Chain-of-Scrutiny: Detecting Backdoor Attacks for Large Language Models [35.77228114378362]
大規模言語モデル(LLM)は、攻撃者が設定した特定の「トリガー」を含む入力が悪意ある出力を生成する。
従来の防衛戦略は、モデルアクセスの制限、高い計算コスト、データ要求のため、APIアクセス可能なLLMでは実用的ではない。
バックドア攻撃を緩和するために,LLMのユニークな推論能力を活用するChain-of-Scrutiny (CoS)を提案する。
論文 参考訳(メタデータ) (2024-06-10T00:53:25Z) - Coercing LLMs to do and reveal (almost) anything [80.8601180293558]
大規模言語モデル(LLM)に対する敵対的攻撃は、有害なステートメントを作るためにモデルを「ジェイルブレイク」することができることが示されている。
LLMに対する敵対的攻撃のスペクトルは単なるジェイルブレイクよりもはるかに大きいと我々は主張する。
論文 参考訳(メタデータ) (2024-02-21T18:59:13Z) - SmoothLLM: Defending Large Language Models Against Jailbreaking Attacks [99.23352758320945]
SmoothLLMは,大規模言語モデル(LLM)に対するジェイルブレーキング攻撃を軽減するために設計された,最初のアルゴリズムである。
敵が生成したプロンプトが文字レベルの変化に対して脆弱であることから、我々の防衛はまず、与えられた入力プロンプトの複数のコピーをランダムに摂動し、対応する予測を集約し、敵の入力を検出する。
論文 参考訳(メタデータ) (2023-10-05T17:01:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。