論文の概要: Living Off the LLM: How LLMs Will Change Adversary Tactics
- arxiv url: http://arxiv.org/abs/2510.11398v1
- Date: Mon, 13 Oct 2025 13:41:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:30.380318
- Title: Living Off the LLM: How LLMs Will Change Adversary Tactics
- Title(参考訳): LLMから逃れる - LLMが逆の戦術を変える方法
- Authors: Sean Oesch, Jack Hutchins, Luke Koch, Kevin Kurian,
- Abstract要約: 悪質なアクターは、土地攻撃から逃れるために、システムにすでに存在している合法的なツールやプロセスを使います。
本稿では,将来デバイス上でのLDMが,脅威アクターがLDMを陸上攻撃パイプラインの生活に組み込むことによって,セキュリティ上の問題となるかを検討する。
- 参考スコア(独自算出の注目度): 1.9021795588364159
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In living off the land attacks, malicious actors use legitimate tools and processes already present on a system to avoid detection. In this paper, we explore how the on-device LLMs of the future will become a security concern as threat actors integrate LLMs into their living off the land attack pipeline and ways the security community may mitigate this threat.
- Abstract(参考訳): 悪質なアクターは、土地攻撃から逃れるために、システムにすでに存在している合法的なツールやプロセスを使います。
本稿では,脅威アクターがランドアタックパイプラインの生活にLLMを統合することによって,将来のオンデバイスLSMがセキュリティ上の問題となるのか,また,セキュリティコミュニティがこの脅威を緩和する方法について検討する。
関連論文リスト
- LLM in the Middle: A Systematic Review of Threats and Mitigations to Real-World LLM-based Systems [0.3635283440841641]
ジェネレーティブAI(GenAI)は、モデルを悪用したり、機密データを盗んだり、サービスを破壊しようとするサイバー犯罪者の注目を集めている。
我々は、脅威と防衛戦略の体系的レビューと包括的分類を行うことにより、このようなLCMベースのシステムのセキュリティとプライバシに関する懸念を浮き彫りにした。
この作業は、消費者やベンダーがそれぞれのソリューションや組織にLSMを統合する際のリスクを理解し、効率的に軽減する方法を開拓する。
論文 参考訳(メタデータ) (2025-09-12T20:26:16Z) - Security Concerns for Large Language Models: A Survey [4.1824815480811806]
大きな言語モデル(LLM)は自然言語処理に革命をもたらしたが、その能力は新たなセキュリティ脆弱性も導入している。
この調査は、脅威をいくつかの重要な領域に分類する、これらの新興懸念の包括的概要を提供する。
LLMが安全で有益であることを保証するために、堅牢で多層的なセキュリティ戦略を推進していくことの重要性を強調した。
論文 参考訳(メタデータ) (2025-05-24T22:22:43Z) - Commercial LLM Agents Are Already Vulnerable to Simple Yet Dangerous Attacks [88.84977282952602]
最近のMLセキュリティ文献は、整列型大規模言語モデル(LLM)に対する攻撃に焦点を当てている。
本稿では,LLMエージェントに特有のセキュリティとプライバシの脆弱性を分析する。
我々は、人気のあるオープンソースおよび商用エージェントに対する一連の実証的な攻撃を行い、その脆弱性の即時的な影響を実証した。
論文 参考訳(メタデータ) (2025-02-12T17:19:36Z) - The Information Security Awareness of Large Language Models [13.977080888159627]
情報セキュリティ意識(ISA)は、大規模言語モデル(LLM)の重要かつ未解明の安全性の側面である。
本稿では,モバイルISA分類における30のセキュリティトピックすべてを対象として,LLMのISAを自動的に測定する手法を提案する。
人気モデルのほとんどが中~低レベルのISAしか表示せず、ユーザをサイバーセキュリティの脅威にさらしていることが分かりました。
論文 参考訳(メタデータ) (2024-11-20T11:09:55Z) - Purple-teaming LLMs with Adversarial Defender Training [57.535241000787416]
本稿では,PAD(Adversarial Defender Training)を用いたPurple-teaming LLMを提案する。
PADは、赤チーム(アタック)技術と青チーム(セーフティトレーニング)技術を新たに取り入れることで、LSMを保護するために設計されたパイプラインである。
PADは、効果的な攻撃と堅牢な安全ガードレールの確立の両方において、既存のベースラインを著しく上回っている。
論文 参考訳(メタデータ) (2024-07-01T23:25:30Z) - Uncovering Safety Risks of Large Language Models through Concept Activation Vector [13.804245297233454]
大規模言語モデル(LLM)に対する攻撃を誘導する安全概念活性化ベクトル(SCAV)フレームワークについて紹介する。
そこで我々は,攻撃プロンプトと埋め込みレベルの攻撃の両方を生成できるSCAV誘導攻撃法を開発した。
本手法は,トレーニングデータが少なくなるとともに,攻撃成功率と応答品質を著しく向上させる。
論文 参考訳(メタデータ) (2024-04-18T09:46:25Z) - The Wolf Within: Covert Injection of Malice into MLLM Societies via an MLLM Operative [55.08395463562242]
MLLM(Multimodal Large Language Models)は、AGI(Artificial General Intelligence)の新たな境界を常に定義している。
本稿では,MLLM社会において,悪意のあるコンテンツの間接的伝播という新たな脆弱性について検討する。
論文 参考訳(メタデータ) (2024-02-20T23:08:21Z) - Use of LLMs for Illicit Purposes: Threats, Prevention Measures, and
Vulnerabilities [14.684194175806203]
大規模言語モデル(LLM)は詐欺、偽造、マルウェアの発生に誤用されることがある。
本稿では,LSMの生成能力による脅威と,そのような脅威に対処するための予防措置と,不完全な予防措置に起因する脆弱性との関係を分類する。
論文 参考訳(メタデータ) (2023-08-24T14:45:50Z) - Not what you've signed up for: Compromising Real-World LLM-Integrated
Applications with Indirect Prompt Injection [64.67495502772866]
大規模言語モデル(LLM)は、様々なアプリケーションに統合されつつある。
本稿では、プロンプトインジェクション攻撃を用いて、攻撃者が元の命令をオーバーライドし、制御を採用する方法を示す。
我々は、コンピュータセキュリティの観点から、影響や脆弱性を体系的に調査する包括的な分類法を導出する。
論文 参考訳(メタデータ) (2023-02-23T17:14:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。