論文の概要: On-Premise SLMs vs. Commercial LLMs: Prompt Engineering and Incident Classification in SOCs and CSIRTs
- arxiv url: http://arxiv.org/abs/2511.14908v1
- Date: Tue, 18 Nov 2025 20:56:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-20 15:51:28.528637
- Title: On-Premise SLMs vs. Commercial LLMs: Prompt Engineering and Incident Classification in SOCs and CSIRTs
- Title(参考訳): オンプレミスSLMと商用LLM:SOCとCSIRTのプロンプトエンジニアリングとインシデント分類
- Authors: Gefté Almeida, Marcio Pohlmann, Alex Severo, Diego Kreutz, Tiago Heinrich, Lourenço Pereira,
- Abstract要約: セキュリティインシデント分類のためのオープンソースモデルを評価し,プロプライエタリモデルと比較した。
その結果、プロプライエタリなモデルは依然として高い精度を示していますが、ローカルにデプロイされたオープンソースモデルは、プライバシ、コスト効率、データ主権の利点を提供します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this study, we evaluate open-source models for security incident classification, comparing them with proprietary models. We utilize a dataset of anonymized real incidents, categorized according to the NIST SP 800-61r3 taxonomy and processed using five prompt-engineering techniques (PHP, SHP, HTP, PRP, and ZSL). The results indicate that, although proprietary models still exhibit higher accuracy, locally deployed open-source models provide advantages in privacy, cost-effectiveness, and data sovereignty.
- Abstract(参考訳): 本研究では,セキュリティインシデント分類のためのオープンソースモデルの評価を行い,プロプライエタリモデルと比較する。
我々はNIST SP 800-61r3分類で分類された匿名化された実事故のデータセットを使用し,5つのプロンプトエンジニアリング技術(PHP, SHP, HTP, PRP, ZSL)を用いて処理した。
その結果、プロプライエタリなモデルは依然として高い精度を示していますが、ローカルにデプロイされたオープンソースモデルは、プライバシ、コスト効率、データ主権の利点を提供します。
関連論文リスト
- Learning Obfuscations Of LLM Embedding Sequences: Stained Glass Transform [1.8749305679160366]
我々は、AIモデルの単語埋め込みの学習されたシーケンス依存的な変換であるStained Glass Transformを紹介する。
我々は、相互情報に基づいて、事後プライバシ推定を算出し、変換された埋め込みのインスタンスのプライバシと実用性を検証する。
論文 参考訳(メタデータ) (2025-06-11T06:56:12Z) - Rethinking Scale: The Efficacy of Fine-Tuned Open-Source LLMs in Large-Scale Reproducible Social Science Research [0.0]
大規模言語モデル(LLM)は、パラメータのサイズと性能を規定するアーキテクチャによって区別される。
社会科学者はテキスト分類タスクにLLMを採用しており、人間のコーダーではスケールが難しい。
本研究は,ChatGPT-4 などのモデルに対して,小型かつ微調整のオープンソース LLM が同等あるいは優れた性能を発揮することを示す。
論文 参考訳(メタデータ) (2024-10-31T20:26:30Z) - REEF: Representation Encoding Fingerprints for Large Language Models [53.679712605506715]
REEFは、被疑者モデルと被害者モデルの表現との中心となるカーネルアライメントの類似性を計算し、比較する。
このトレーニング不要のREEFは、モデルの一般的な能力を損なうことなく、シーケンシャルな微調整、プルーニング、モデルマージ、置換に堅牢である。
論文 参考訳(メタデータ) (2024-10-18T08:27:02Z) - Robust Utility-Preserving Text Anonymization Based on Large Language Models [80.5266278002083]
機密情報を含む匿名化は、幅広いアプリケーションにとって不可欠である。
既存の技術は、大規模言語モデルの再識別能力の新たな課題に直面している。
本稿では,プライバシ評価器,ユーティリティ評価器,最適化コンポーネントの3つの重要なコンポーネントで構成されるフレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-16T14:28:56Z) - Scaling Down to Scale Up: A Cost-Benefit Analysis of Replacing OpenAI's LLM with Open Source SLMs in Production [3.41402911469979]
多くの企業は、OpenAIのGPT-4のようなサービスとして提供される大きな言語モデル(LLM)を使用して、AI対応製品エクスペリエンスを作成している。
同時に、オープンソースのスモールランゲージモデル(SLM)が市販されている。
本稿では,現代のオープンソースSLMの体系的評価手法と特徴について述べる。
論文 参考訳(メタデータ) (2023-12-20T19:27:59Z) - ExtractGPT: Exploring the Potential of Large Language Models for Product Attribute Value Extraction [52.14681890859275]
電子商取引プラットフォームは、属性と値のペアという形で構造化された製品データを必要とする。
BERTベースの抽出法では,タスク固有の大量のトレーニングデータを必要とする。
本稿では,大規模言語モデル (LLM) を,より訓練的かつ堅牢な代替手段として活用することを検討する。
論文 参考訳(メタデータ) (2023-10-19T07:39:00Z) - Do-Not-Answer: A Dataset for Evaluating Safeguards in LLMs [59.596335292426105]
本稿では,大規模な言語モデルにおけるセーフガードを評価するための,最初のオープンソースデータセットを収集する。
我々は、自動安全性評価において、GPT-4に匹敵する結果を得るために、BERTライクな分類器をいくつか訓練する。
論文 参考訳(メタデータ) (2023-08-25T14:02:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。