論文の概要: Command-line Risk Classification using Transformer-based Neural Architectures
- arxiv url: http://arxiv.org/abs/2412.01655v1
- Date: Mon, 02 Dec 2024 16:04:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-04 15:46:24.903980
- Title: Command-line Risk Classification using Transformer-based Neural Architectures
- Title(参考訳): トランスフォーマーに基づくニューラルネットワークを用いたコマンドラインリスク分類
- Authors: Paolo Notaro, Soroush Haeri, Jorge Cardoso, Michael Gerndt,
- Abstract要約: コマンドインターセプションシステムは、損傷を起こす前に危険なコマンドラインインターフェース(CLI)コマンドをインターセプト、評価、ブロックするために使用される。
コマンドリスクアセスメントの従来のソリューションには、専門家の知識と、目に見えないコマンドを考慮に入れた定期的な人間の修正を必要とするルールベースのシステムが含まれる。
本稿では,Large Language Models (LLM) のパワーを活用し,高精度な分類と危険なコマンドを効果的に識別する能力を提供するトランスフォーマーベースのコマンドリスク分類システムを提案する。
- 参考スコア(独自算出の注目度): 0.8083629219957997
- License:
- Abstract: To protect large-scale computing environments necessary to meet increasing computing demand, cloud providers have implemented security measures to monitor Operations and Maintenance (O&M) activities and therefore prevent data loss and service interruption. Command interception systems are used to intercept, assess, and block dangerous Command-line Interface (CLI) commands before they can cause damage. Traditional solutions for command risk assessment include rule-based systems, which require expert knowledge and constant human revision to account for unseen commands. To overcome these limitations, several end-to-end learning systems have been proposed to classify CLI commands. These systems, however, have several other limitations, including the adoption of general-purpose text classifiers, which may not adapt to the language characteristics of scripting languages such as Bash or PowerShell, and may not recognize dangerous commands in the presence of an unbalanced class distribution. In this paper, we propose a transformer-based command risk classification system, which leverages the generalization power of Large Language Models (LLM) to provide accurate classification and the ability to identify rare dangerous commands effectively, by exploiting the power of transfer learning. We verify the effectiveness of our approach on a realistic dataset of production commands and show how to apply our model for other security-related tasks, such as dangerous command interception and auditing of existing rule-based systems.
- Abstract(参考訳): コンピューティング需要の増加に対応するために必要な大規模コンピューティング環境を保護するため、クラウドプロバイダはオペレーション・アンド・メンテナンス(O&M)活動を監視し、データ損失やサービス中断を防止するためのセキュリティ対策を実施している。
コマンドインターセプションシステムは、損傷を起こす前に危険なコマンドラインインターフェース(CLI)コマンドをインターセプト、評価、ブロックするために使用される。
コマンドリスクアセスメントの従来のソリューションには、専門家の知識と、目に見えないコマンドを考慮に入れた定期的な人間の修正を必要とするルールベースのシステムが含まれる。
これらの制限を克服するため、CLIコマンドを分類するために、いくつかのエンドツーエンドの学習システムが提案されている。
しかし、これらのシステムには他にも、BashやPowerShellのようなスクリプト言語の言語特性に適応しない汎用テキスト分類器の採用など、不均衡なクラス分布の存在下で危険なコマンドを認識できない、いくつかの制限がある。
本稿では,大規模言語モデル(LLM)の一般化力を活用して,トランスファー学習の力を利用して,危険なコマンドを効果的に識別できるトランスフォーマーベースのコマンドリスク分類システムを提案する。
我々は,本手法が実運用コマンドの現実的なデータセットに与える影響を検証するとともに,危険なコマンドインターセプションや既存のルールベースのシステムの監査など,他のセキュリティ関連タスクにモデルを適用する方法を示す。
関連論文リスト
- Mimicking the Familiar: Dynamic Command Generation for Information Theft Attacks in LLM Tool-Learning System [13.23705767032468]
情報盗難攻撃は、Large Language Model (LLM)ツール学習システムに重大なリスクをもたらす。
LLMツール学習システムにおける情報盗難攻撃に対する動的攻撃コメント生成手法であるAutoCMDを提案する。
論文 参考訳(メタデータ) (2025-02-17T02:15:46Z) - Instructional Segment Embedding: Improving LLM Safety with Instruction Hierarchy [53.54777131440989]
LLM(Large Language Models)は、セキュリティや安全性の脅威を受けやすい言語である。
これらの脆弱性の大きな原因の1つは、命令階層の欠如である。
本稿では,BERTにインスパイアされた命令セグメント埋め込み(ISE)技法を,現代の大規模言語モデルに導入する。
論文 参考訳(メタデータ) (2024-10-09T12:52:41Z) - System-Level Defense against Indirect Prompt Injection Attacks: An Information Flow Control Perspective [24.583984374370342]
LLMシステム(Large Language Model-based System)は、情報処理およびクエリ処理システムである。
本稿では,情報フロー制御の原理に基づくシステムレベルの防衛システムについて述べる。
論文 参考訳(メタデータ) (2024-09-27T18:41:58Z) - Compromising Embodied Agents with Contextual Backdoor Attacks [69.71630408822767]
大型言語モデル(LLM)は、エンボディドインテリジェンスの発展に変化をもたらした。
本稿では,このプロセスにおけるバックドアセキュリティの重大な脅威を明らかにする。
ほんの少しの文脈的デモンストレーションを毒殺しただけで、攻撃者はブラックボックスLDMの文脈的環境を隠蔽することができる。
論文 参考訳(メタデータ) (2024-08-06T01:20:12Z) - Unveiling the Misuse Potential of Base Large Language Models via In-Context Learning [61.2224355547598]
大規模言語モデル(LLM)のオープンソース化は、アプリケーション開発、イノベーション、科学的進歩を加速させる。
我々の調査は、この信念に対する重大な監視を露呈している。
我々の研究は、慎重に設計されたデモを配置することにより、ベースLSMが悪意のある命令を効果的に解釈し実行できることを実証する。
論文 参考訳(メタデータ) (2024-04-16T13:22:54Z) - DECIDER: A Dual-System Rule-Controllable Decoding Framework for Language Generation [57.07295906718989]
制約付き復号法は,事前学習言語モデル(PLM)が生成するテキストの意味やスタイルを,推論中に特定のターゲット語を用いて制御することを目的としている。
我々は, PLM を制御するためのタスクの完了方法に関するルールをプログラムできる新しい復号化フレームワーク DECIDER を提案する。
論文 参考訳(メタデータ) (2024-03-04T11:49:08Z) - Human-Centric Autonomous Systems With LLMs for User Command Reasoning [16.452638202694246]
本稿では,大規模言語モデルの推論機能を活用して,キャビン内ユーザのコマンドからシステム要求を推測する。
提案手法の有効性は, LLMモデルの品質と適切な逐次的プロンプトの設計の両面から評価されている。
論文 参考訳(メタデータ) (2023-11-14T14:42:28Z) - Anomaly Detection of Command Shell Sessions based on DistilBERT:
Unsupervised and Supervised Approaches [0.0]
コマンドシェルセッションにおける異常検出は、コンピュータセキュリティの重要な側面である。
近年のディープラーニングと自然言語処理の進歩は,複雑なセキュリティ問題に対処する上で大きな可能性を秘めている。
本研究では,事前学習した DistilBERT モデルを用いて,Unix シェルセッション中の異常を検出するための包括的アプローチを実装した。
論文 参考訳(メタデータ) (2023-10-20T03:04:32Z) - Not what you've signed up for: Compromising Real-World LLM-Integrated
Applications with Indirect Prompt Injection [64.67495502772866]
大規模言語モデル(LLM)は、様々なアプリケーションに統合されつつある。
本稿では、プロンプトインジェクション攻撃を用いて、攻撃者が元の命令をオーバーライドし、制御を採用する方法を示す。
我々は、コンピュータセキュリティの観点から、影響や脆弱性を体系的に調査する包括的な分類法を導出する。
論文 参考訳(メタデータ) (2023-02-23T17:14:38Z) - Learning Causal Models of Autonomous Agents using Interventions [11.351235628684252]
我々は、AIシステムがシミュレータで高レベルの命令シーケンスを実行することができるエージェントアセスメントモジュールの分析を拡張した。
このような原始的なクエリ応答能力は、システムのユーザ解釈可能な因果関係モデルを効率的に導出するのに十分であることを示す。
論文 参考訳(メタデータ) (2021-08-21T21:33:26Z) - Safe RAN control: A Symbolic Reinforcement Learning Approach [62.997667081978825]
本稿では,無線アクセスネットワーク(RAN)アプリケーションの安全管理のためのシンボル強化学習(SRL)アーキテクチャを提案する。
我々は、ユーザが所定のセルネットワークトポロジに対して高レベルの論理的安全性仕様を指定できる純粋に自動化された手順を提供する。
ユーザがシステムに意図仕様を設定するのを支援するために開発されたユーザインターフェース(UI)を導入し、提案するエージェントの動作の違いを検査する。
論文 参考訳(メタデータ) (2021-06-03T16:45:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。